Mund einer künstlichen Frauenfigur mit Computerplatine
+
Mund einer künstlichen Frauenfigur (Symbolbild).

Washington Post

Gefälschte KI-Nacktbilder haben Hochkonjunktur – Sie ruinieren das Leben von echten Teenagern

„Ich fühlte mich eklig und verletzt“, sagte eine Betroffene. Mit dem Hype um KI kursieren immer mehr gefälschte pornografische Bilder und Videos im Internet, die auch sehr junge Mädchen treffen.

Washington – Als Gabi Belle erfuhr, dass ein Nacktfoto von ihr im Internet kursierte, wurde ihr kalt. Die YouTube-Influencerin hatte nie für das Bild posiert, auf dem sie unbekleidet auf einem Feld stand. Sie wusste, dass es gefälscht sein musste.

KI-Nacktbilder: „Ich fühlte mich eklig und verletzt“

Doch als die 26-jährige Belle einen Kollegen um Hilfe bei der Entfernung des Bildes bat, erfuhr sie, dass fast 100 gefälschte Fotos im Internet kursierten, meist auf Websites, die dafür bekannt sind, von künstlicher Intelligenz generierte Pornos zu hosten. Sie wurden im Juli entfernt, sagte Belle, aber neue Bilder, die sie in grafischen sexuellen Situationen zeigen, sind bereits wieder aufgetaucht.

„Ich fühlte mich eklig und verletzt“, sagte Belle in einem Interview. „Diese privaten Dinge sind nicht dafür gedacht, dass die Welt sie sieht, denn ich habe dem nicht zugestimmt. Es ist also wirklich seltsam, dass jemand Bilder von mir macht.“

Künstliche Intelligenz hat in diesem Jahr zu einem beispiellosen Boom bei gefälschten pornografischen Bildern und Videos geführt. Ermöglicht wird dies durch die Zunahme billiger und einfach zu bedienender KI-Tools, die Menschen auf Fotos „ausziehen“ können – indem sie analysieren, wie ihre nackten Körper aussehen würden, und dies in ein Bild einfügen – oder ein Gesicht nahtlos in ein pornografisches Video einfügen.

The Washington Post vier Wochen gratis lesen

Ihr Qualitäts-Ticket der washingtonpost.com: Holen Sie sich exklusive Recherchen und 200+ Geschichten vier Wochen gratis.

Laut Genevieve Oh, einer Branchenanalystin, ist die Zahl der gefälschten Nacktbilder auf den 10 wichtigsten Websites, die KI-generierte Pornofotos hosten, seit 2018 um mehr als 290 Prozent gestiegen. Auf diesen Websites sind Prominente und politische Persönlichkeiten wie die New Yorker Abgeordnete Alexandria Ocasio-Cortez ebenso zu sehen wie gewöhnliche Teenager-Mädchen, deren Konterfeis von schlechten Akteuren genutzt werden, um Scham zu erregen, Geld zu erpressen oder private Fantasien auszuleben.

Die Opfer haben kaum Rechtsmittel. Es gibt kein Bundesgesetz, das Deepfake-Pornos regelt, und nur eine Handvoll Staaten hat Vorschriften erlassen. Die von Präsident Biden am Montag erlassene KI-Verordnung empfiehlt Unternehmen, KI-generierte Fotos, Videos und Audiodateien als computergenerierte Werke zu kennzeichnen, verlangt dies aber nicht.

Rechtswissenschaftler warnen unterdessen, dass KI-Fotos möglicherweise nicht unter den Urheberrechtsschutz für persönliche Abbildungen fallen, da sie aus Datensätzen mit Millionen von Bildern stammen. „Dies ist eindeutig ein sehr ernstes Problem“, so Tiffany Li, Rechtsprofessorin an der Universität von San Francisco.

Das Aufkommen von KI-Bildern birgt ein besonderes Risiko für Frauen und Teenager, von denen viele nicht auf eine solche Sichtbarkeit vorbereitet sind. Eine 2019 durchgeführte Studie von Sensity AI, einem Unternehmen, das Deepfakes überwacht, ergab, dass 96 Prozent der Deepfake-Bilder pornografisch sind, und 99 Prozent dieser Fotos zielen auf Frauen ab.

„Es zielt jetzt sehr stark auf Mädchen ab“, sagte Sophie Maddocks, eine Forscherin und Anwältin für digitale Rechte an der University of Pennsylvania. „Junge Mädchen und Frauen, die nicht im Blickpunkt der Öffentlichkeit stehen.“

„Schau, Mama. Was haben sie mit mir gemacht?“

Am 17. September kehrte Miriam Al Adib Mendiri von einer Reise in ihr Haus in Südspanien zurück, als sie ihre 14-jährige Tochter verzweifelt auffand. Ihre Tochter hatte ein Nacktfoto von sich veröffentlicht.

„Schau, Mama. Was haben sie mit mir gemacht?“ erinnerte sich Al Adib Mendiri an die Worte ihrer Tochter.

Sie hatte nie nackt posiert. Eine Gruppe einheimischer Jungen hatte sich jedoch bekleidete Fotos von den Social-Media-Profilen mehrerer Mädchen in ihrer Stadt geschnappt und eine KI-App „Nudifier“ verwendet, um die Nacktbilder zu erstellen, so die Polizei.

Die Anwendung ist eines von vielen KI-Tools, die echte Bilder verwenden, um Nacktfotos zu erstellen, die in den letzten Monaten das Internet überschwemmt haben. Durch die Analyse von Millionen von Bildern kann die KI-Software besser vorhersagen, wie ein Körper nackt aussehen wird, und ein Gesicht fließend in ein pornografisches Video einfügen, sagte Gang Wang, ein Experte für KI an der University of Illinois in Urbana-Champaign.

Obwohl viele KI-Bildgeneratoren die Benutzer daran hindern, pornografisches Material zu erstellen, macht Open-Source-Software wie Stable Diffusion ihren Code öffentlich, so dass Amateurentwickler die Technologie anpassen können - oft für schändliche Zwecke. (Stability AI, der Hersteller von Stable Diffusion, antwortete nicht auf eine Anfrage zur Stellungnahme.)

Sobald diese Anwendungen veröffentlicht sind, nutzen sie Empfehlungsprogramme, die die Nutzer dazu ermutigen, die von der KI generierten Fotos in den sozialen Medien zu teilen und dafür Geld zu erhalten, so Oh.

Als Oh die 10 wichtigsten Websites untersuchte, auf denen gefälschte Pornobilder gehostet werden, stellte sie fest, dass in diesem Jahr mehr als 415.000 Bilder hochgeladen wurden, die fast 90 Millionen Mal angesehen wurden.

Auch KI-generierte Pornovideos haben sich im Internet explosionsartig verbreitet. Nachdem sie die 40 beliebtesten Websites nach gefälschten Videos durchsucht hatte, stellte Oh fest, dass im Jahr 2023 mehr als 143.000 Videos hinzugefügt worden waren - eine Zahl, die alle neuen Videos von 2016 bis 2022 übertrifft. Die gefälschten Videos wurden mehr als 4,2 Milliarden Mal aufgerufen, so Oh.

Das Federal Bureau of Investigation warnte im Juni vor einem Anstieg sexueller Erpressung durch Betrüger, die Zahlungen oder Fotos als Gegenleistung für die Nichtverbreitung sexueller Bilder fordern. Es ist zwar unklar, wie hoch der Prozentsatz dieser Bilder ist, die von künstlicher Intelligenz (KI) generiert werden, aber die Praxis nimmt zu. Bis September wurden mehr als 26.800 Menschen Opfer von „Sextortion“-Kampagnen, ein Anstieg von 149 Prozent gegenüber 2019, so das FBI gegenüber The Post.

„Du bist als Frau nicht sicher“

Im Mai startete ein Poster in einem beliebten Pornografieforum einen Thread mit dem Titel „I can fake your crush“. Die Idee war einfach: „Schickt mir, wen auch immer ihr nackt sehen wollt, und ich kann sie mit Hilfe von KI fälschen“, schrieb der Moderator.

Innerhalb weniger Stunden strömten Fotos von Frauen herein. „Kannst du dieses Mädchen machen? Keine Prominente oder Influencerin“, fragte ein Poster. „Meine Arbeitskollegin und meine Nachbarin“, fügte ein anderer hinzu.

Minuten nach einer Anfrage erschien eine nackte Version des Bildes in dem Thread. „Vielen Dank, Bruder, es ist perfekt“, schrieb ein Nutzer.

Prominente sind ein beliebtes Ziel für die Macher von Fake-Pornos, die aus dem Interesse an der Suche nach Nacktfotos berühmter Schauspieler Kapital schlagen wollen. Websites, auf denen berühmte Menschen zu sehen sind, können aber auch zu einem Anstieg anderer Arten von Nacktfotos führen. Die Websites enthalten oft „Amateur“-Inhalte von unbekannten Personen und enthalten Anzeigen, die KI-Tools zur Pornoherstellung vermarkten.

Google hat Maßnahmen ergriffen, um zu verhindern, dass nicht einvernehmliche sexuelle Bilder in den Suchergebnissen auftauchen, aber seine Schutzmaßnahmen für Deepfake-Bilder sind nicht so robust. Deepfake-Pornos und die Tools, mit denen sie hergestellt werden können, tauchen in den Suchmaschinen des Unternehmens an prominenter Stelle auf, auch wenn man nicht speziell nach KI-generierten Inhalten sucht. Oh dokumentierte mehr als ein Dutzend Beispiele in Screenshots, die von The Post unabhängig bestätigt wurden.

Ned Adriance, ein Sprecher von Google, sagte in einer Erklärung, dass das Unternehmen „aktiv daran arbeitet, die Suche besser zu schützen“ und dass das Unternehmen es den Nutzern ermöglicht, die Entfernung von unfreiwillig gefälschten Pornos zu verlangen.

Google sei dabei, „umfassendere Schutzmaßnahmen zu entwickeln“, die es den Opfern nicht abverlangen würden, die Entfernung von Inhalten einzeln zu beantragen, sagte er.

Li von der Universität von San Francisco sagte, dass es schwierig sein kann, die Urheber dieser Inhalte zu bestrafen. Abschnitt 230 des Communications Decency Act schützt Social-Media-Unternehmen vor der Haftung für die auf ihren Websites veröffentlichten Inhalte, so dass die Websites kaum die Aufgabe haben, Bilder zu überwachen.

Die Opfer können verlangen, dass die Unternehmen Fotos und Videos mit ihrem Abbild entfernen. Da KI jedoch aus einer Vielzahl von Bildern in einem Datensatz ein gefälschtes Foto erstellt, ist es für ein Opfer schwieriger zu behaupten, der Inhalt stamme ausschließlich von seinem Konterfei, so Li.

„Vielleicht kann man immer noch sagen: ‚Das ist eine Urheberrechtsverletzung, es ist klar, dass sie mein urheberrechtlich geschütztes Originalfoto genommen und dann nur ein wenig dazugefügt haben‘“, so Li. „Aber bei tiefgreifenden Fälschungen ist es nicht so klar, was die Originalfotos waren.“

US-Bundesstaaten haben Gesetze zur Bekämpfung von Fälschungen erlassen

In Ermangelung von Bundesgesetzen haben mindestens neun Bundesstaaten - darunter Kalifornien, Texas und Virginia - Gesetze zur Bekämpfung von Fälschungen erlassen. Diese Gesetze sind jedoch unterschiedlich weit gefasst: In einigen Staaten können die Opfer Strafanzeige erstatten, während andere nur Zivilklagen zulassen - wobei es schwierig sein kann, herauszufinden, wen man verklagen kann.

Der Vorstoß zur Regulierung von KI-generierten Bildern und Videos zielt oft darauf ab, die massenhafte Verbreitung zu verhindern und Bedenken über Wahlbeeinflussung zu zerstreuen, so Sam Gregory, Geschäftsführer der Tech-Menschenrechtsorganisation Witness.

Aber diese Regeln helfen wenig bei Deepfake-Pornos, wo Bilder, die in kleinen Gruppen geteilt werden, das Leben einer Person zerstören können, fügte Gregory hinzu.

Belle, die YouTube-Influencerin, ist sich immer noch nicht sicher, wie viele Deepfake-Fotos von ihr öffentlich sind, und sagte, dass strengere Regeln erforderlich sind, um ihre Erfahrungen zu berücksichtigen.

„Als Frau ist man nicht sicher“, sagte sie.

Zum Autor 

Pranshu Verma ist Reporter im Technologie-Team von The Washington Post. Bevor er im Jahr 2022 zur Post kam, berichtete er beim Boston Globe über Technologie. Davor war er als Journalist bei der New York Times und dem Philadelphia Inquirer tätig.

Wir testen zurzeit maschinelle Übersetzungen. Dieser Artikel wurde aus dem Englischen automatisiert ins Deutsche übersetzt.

Dieser Artikel war zuerst am 05. November 2023 in englischer Sprache bei der „Washingtonpost.com“ erschienen – im Zuge einer Kooperation steht er nun in Übersetzung auch den Lesern der IPPEN.MEDIA-Portale zur Verfügung.

Mehr zum Thema