Thema – Internet

Suchen Newsletter ABO Mediathek

Nackte Gewalt

Künstliche Nacktbilder zu erstellen wird technisch immer einfacher. Doch wie kann man sich gegen Deepnudes wehren?

deepnudes

Ein Selbstexperiment auf einer Webseite, mit der Deepnudes erstellt werden können: Die Seite fordert mich auf, ein Bild hochzuladen. Was soll es zeigen? Eine Frau, möglichst wenig bekleidet soll sie sein, kurzes Kleid, kurzes Top, die langen Haare sollen nicht allzu viel vom Körper verdecken. Ich scrolle durch meine Bildergalerie und finde schließlich ein Foto, das dem, was die Webseite von mir will, am ehesten entspricht: Ich trage eine kurze Hose und T-Shirt und laufe gerade einen Hügel in Südfrankreich hinauf. Grummelnd bezahle ich 28 Euro, erhalte einen Credit für 100 Nude-Fotos und tatsächlich: Nach 40 Sekunden erscheint dasselbe Foto von mir, nur bin ich jetzt „nackt“; für umgerechnet 30 Cent.

So einfach ist es, Deepfakes zu erstellen – sich selbst und andere Menschen vermeintlich zu entblößen, bei anderen Seiten reicht es sogar schon, den Link zu einem öffentlich einsehbaren Foto auf einem Instagram-Profil einzugeben. Mittlerweile muss man für diese Seiten meist bezahlen, das war vor einigen Jahren noch anders. Die Technologie wurde immer besser, so ist über die Jahre ein ganzer Markt entstanden. Und je einfacher Deepfakes zu erstellen sind, desto mehr gibt es.

Das Cybermobbing mit Deepnudes nimmt zu

Was das bedeuten kann, wenn diese Technologie genutzt wird, um jemanden digital „auszuziehen“, musste zum Beispiel die 14-jährige Schülerin Francesca Mani erleben. Am 20. Oktober des vergangenen Jahres herrschte große Besorgnis unter den Mädchen an Francescas Schule in New Jersey, USA. Gerüchte verbreiteten sich auf den Fluren und in den Klassenzimmern. Es seien Videos aufgetaucht. Am Ende des Tages war klar: Die Videos zeigten auch Francesca – oder wenigstens ihr Gesicht. Im Sommer hatte ein Junge heimlich Fotos von Francesca und 30 anderen Schülerinnen gemacht und diese dann mit Deepfake-Software manipuliert, um gefälschte Nudes zu erzeugen, und online verbreitet.

 

Als schließlich Schüler*innen die Schulverwaltung über die Videos informierten, und so auch Francesca von den Fake-Nudes erfuhr, kursierten die bereits seit Wochen im Netz. Am meisten schockiert, sagte Francesca in einem Interview, sei sie über den Verrat durch ihre eigenen Mitschüler gewesen, von denen sie nie erwartet hätte, dass sie ihr und ihren Mitschülerinnen so etwas antun würden.

Vergleichbares spielt sich auch in Deutschland ab. „Wir erleben auch in unserer deutschlandweiten Beratung, dass immer mehr Betroffene mit Fällen von Deepfake-Pornografie, wozu gefälschte Bilder wie Videos zählen, zu uns kommen, und hören auch immer wieder von ähnlichen Vorfällen auf Schulhöfen“, sagt Franziska Benning. Sie leitet die Rechtsabteilung der Menschenrechtsorganisation Hate Aid, die sich gegen digitale Gewalt einsetzt. Die Betroffenen fühlen sich meist schuldig, haben ihr Sicherheitsgefühl verloren und leiden an Angstzuständen – schwerwiegende Folgen digitaler Gewalt.

An einer Schule in Almendralejo, Spanien, gab es einen ähnlichen Fall wie in New Jersey. Mitschüler erstellten von über 20 jungen Frauen Deepfake-Nacktbilder und verbreiteten diese in WhatsApp-Gruppen unter den Schüler*innen. Die jüngste Schülerin, von der Fake-Nudes erstellt wurden, war sogar erst elf Jahre alt. Auch hier nutzten die Täter, selbst Minderjährige, eine einfach zugängliche Webseite, um aus ganz normalen Fotos ihrer Mitschülerinnen Nacktbilder zu erstellen. Die öffentliche Bekanntmachung dieses Falles durch die Mutter eines betroffenen Kindes erregte landesweit Aufmerksamkeit.

Bereits 2019 zeigten etwa 96 Prozent der entdeckten Deepfakes pornografische Inhalte, die ausschließlich Frauen darstellten. Zudem gibt es einige besonders gefährdete Gruppen, wie Mädchen und junge Frauen mit Migrationsgeschichten oder junge Männer aus der LGBTQI+-Gemeinschaft. Allein die Möglichkeit, solche Bilder zu erstellen, macht manche Menschen erpressbar – Opfer zahlen Tätern dann zum Beispiel Geld, aus Angst vor Stigmatisierung und möglichen Konsequenzen.

Ist das nicht verboten?

Große Technologieunternehmen wie Google und Facebook haben bereits vor fünf Jahren zusammen mit Universitäten Projekte zur Verbesserung ihrer Deepfake-Erkennungstechnologien gestartet. Auch Plattformen wie Pornhub, die für die Verbreitung pornografischer Inhalte bekannt sind, haben begonnen, KI-Technologien einzusetzen, um Deepfake-Inhalte zu erkennen und zu entfernen. Diese Maßnahmen sind jedoch fehleranfällig und lückenhaft. Obwohl Google schon seit Jahren behauptet, an dem Problem zu arbeiten, lassen sich entsprechende Treffer finden.

Hate Aid fordert, dass App-Entwickler*innen Mechanismen einbauen, um zu verhindern, dass Nacktaufnahmen oder pornografisches Material überhaupt erst erstellt werden können. Die Praktiken großer Bildgeneratoren wie Midjourney und Dall-E beweisen zwar, dass solche technischen Lösungen möglich sind, aber nicht sicher: Beide Plattformen setzen Filter und Überwachungssysteme ein, die aber mit Tricks umgangen werden können. Zudem bleibt ungewiss, wie viele kleinere Anbieter ähnliche Dienste wie Deepnude anbieten. Das Dilemma mit mächtiger generativer KI: Einmal freigesetzt ins Netz, ist sie – genau wie die Bilder, die sie erschafft – kaum wieder einzufangen.

Ein Foto oder Video, das mal online ist, kann sich rasend schnell und unermesslich weit verbreiten. Wer so ein Video speichert – darüber hat man gar keine Kontrolle. Betroffene können sich an die Plattformbetreiber sozialer Medien oder Webhoster wenden, sie werden dabei aber möglicherweise lange warten müssen.

Die Gesetzgebung kommt kaum hinterher

Die Gesetzgebung in Deutschland und anderen Ländern hinkt der technologischen Entwicklung hinterher. Das heißt aber nicht, das Betroffene gar nichts tun können: Franziska Benning erklärt, dass Deepfake-Pornografie in Deutschland rechtlich zwar derzeit nicht explizit geregelt sei, aber bereits von vielen Straftatbeständen erfasst werde. Das Verbreiten von Pornografie kann eine Verletzung des Rechts am eigenen Bild und als Verleumdung strafbar sein, wenn man herabwürdigend dargestellt wird. Wer auf Deepfakes von sich oder anderen stößt, kann das also bei der Polizei zur Anzeige bringen. Dabei ist vor allem die Dokumentation der Deepfakes wichtig, zum Beispiel rechtssichere Screenshots (mit Datum und Uhrzeit) als Beweismaterial. Sofern die Täter nicht bekannt sind, wird es allerdings schwierig, sie zu identifizieren, da Deepfakes fast immer anonym erstellt werden.

Das EU-Parlament hat zudem vor kurzem erstmals eine EU-Richtlinie zur Bekämpfung von Gewalt an Frauen gebilligt, die für Deutschland rechtlich bindend ist. Diese könne, so Benning, Anlass sein, um das Thema zu adressieren und zum Beispiel einen eigenständigen Straftatbestand zu schaffen, der das Generieren und Veröffentlichen von Deepfake-Pornografie, also auch Fake-Nudes, die ohne Einverständnis erstellt wurden, verbietet.

Obwohl noch in einer frühen Phase des langwierigen EU-Gesetzgebungsprozesses, soll eine weitere Richtlinie KI-generierte Darstellungen von Minderjährigen als sexuellen Missbrauch einstufen, verdeckte Ermittlungen im Netz erlauben, den Strafrahmen erhöhen und Verjährungsfristen verlängern, um Betroffene besser zu schützen. Darüber hinaus soll die Justiz „kindgerecht“ sein, was unter anderem bedeutet, dass Gerichtsverfahren so gestaltet werden sollten, dass Kinder sie verstehen und ihnen folgen können.

GIF: Renke Brandt

Dieser Text wurde veröffentlicht unter der Lizenz CC-BY-NC-ND-4.0-DE. Die Fotos dürfen nicht verwendet werden.