Das Gesicht einer asiatischen Frau in verschiedenen Varianten.
+
Mit Deepfake-Technologie lassen sich Gesichter in Videos lebensecht manipulieren. (Symbolbild)

Analyse

Pekings Angst vor Deepfakes: Wie China KI-Missbrauch verhindern will

  • VonFabian Peltsch
    schließen

China hat im Januar als eines der ersten Länder umfassende Regularien gegen Deepfakes vorgelegt. Viele sehen das Land nun als Vorreiter. Doch so einfach ist es nicht.

Im Mai meldete die Polizei der Stadt Baotou in der inneren Mongolei, dass ein Mann mithilfe von Deepfake-Technologie um umgerechnet 622.000 US-Dollar betrogen wurde. Ein Hacker hatte ihn mit einem täuschend echten KI-Klon eines Freundes hinters Licht geführt, der ihm in einem Video-Call erklärte, dringend Geld zu benötigen. Dabei handelte es sich nicht um das naive Opfer eines Enkel-Tricks. Der betrogene Mann ist leitender Angestellter einer Tech-Firma aus Fuzhou. Trotzdem hat ihn die lebensechte Körpersprache und Stimme seines falschen Freundes so sehr getäuscht, dass er umgehend den Geldbeutel zückte.

Lippensynchrone Bild- und Videofälschungen mit künstlicher Intelligenz, sogenannte „Deepfakes“ können dank wachsender Rechenleistung und Speicherkapazitäten immer müheloser umgesetzt werden. Die Ergebnisse, die mit preiswerter Software erstellt werden können, sind für den Laien kaum noch vom Original zu unterscheiden, beweisen gefälschte Reden von Politikern wie Putin oder Trump. Die Technik wird zum Beispiel eingesetzt, um im Internet Clickbait zu generieren, etwa indem berühmte Schauspieler in Filme versetzt werden, in denen sie niemals mitgespielt haben.

So bekommen Sie den Newsletter von Table.Media

Diese Analyse liegt IPPEN.MEDIA im Zuge einer Kooperation mit dem China.Table Professional Briefing vor – zuerst veröffentlicht hatte sie China.Table am 7. August 2023.

Erhalten Sie 30 Tage kostenlos Zugang zu weiteren exklusiven Informationen der Table.Media Professional Briefings – das Entscheidende für die Entscheidenden in Wirtschaft, Wissenschaft, Politik, Verwaltung und NGOs.

Deepfake-Verbrechen steigen rasant an

Deepfake-Technologie birgt große Gefahren, etwa wenn gefälschte Politiker-Reden für bare Münze genommen oder gezielt in politischen Verleumdungskampagnen eingesetzt werden. Schon jetzt wird der digitale Identitätsklau massiv für pornografische Videos und zunehmend auch für Erpressungen eingesetzt. Weltweit haben die Fälle von Deepfake-Betrug in den vergangenen drei Jahren massiv zugenommen, wie das auf KI-Sicherheit spezialisierte Unternehmen Sumsub errechnet hat. In Australien (5,3 %), Argentinien (5,1 %) und China (4,9 %) war der Anteil von Deepfakes an Betrugsverbrechen in den Jahren 2022 und 2023 demnach besonders hoch.

Obwohl der betrogene Tech-Executive in der Inneren Mongolei den Großteil seines Geldes durch die Hilfe der Polizei zurückbekam, löste der Fall in China hitzige Diskussionen über Online-Sicherheit aus. Die Internet Society of China gab eine Warnung heraus, in der sie die Öffentlichkeit zu erhöhter Wachsamkeit aufruft. In China, dessen Medienwelt von professionellen Live-Streamern durchdrungen ist, ist die Angst vor Online-Betrug realer als in Deutschland. So kam es in den vergangenen Monaten zum Beispiel immer häufiger vor, dass unbekannte Online-Influencer sich auf Video-Seiten wie Bilibili mit Faceswap-Technik als Celebrities ausgaben und Klicks und Geld generierten.

Peking bewertet Deepfakes als hochriskant

Peking bewertet Deepfake-Technik als hochriskant, nicht zuletzt da sie das Potenzial hat, die öffentliche Ordnung zu untergraben. Schon im Januar hatte Chinas Cyberspace-Verwaltung (CAC) eine Reihe von Regularien zur sogenannten „Technologie der Tiefensynthese“ erlassen. Inhalte, die „die nationale Sicherheit und die nationalen Interessen gefährden und das nationale Image schädigen“ sind laut den „Vorschriften für die Verwaltung von Internet-Informationsdiensten in der Tiefensynthese“ von Vornherein verboten.

Von Anbietern harmloserer Inhalte verlangt die Behörde eine „auffällige Kennzeichnung“ von KI-generierten Inhalten, da sie sonst „in der Öffentlichkeit Verwirrung stiften oder zu einer falschen Identifizierung führen können“. Nutzer müssten authentische Medieninhalte sofort von Fälschungen unterscheiden können. Genannt werden etwa Wasserzeichen. Zuwiderhandlung der Kennzeichnung steht unter Strafe. Alle Produzenten von Deepfakes und Nutzer von Deepfake-Dienstleistungen wie Faceswap-Apps müssen sich gemäß der neuen Regeln zudem mit echtem Namen registrieren. Ein Kalkül ist, dass bestimmte Deepfakes bei diesem Aufwand gar nicht erst entstehen. Chinas Cyberspace-Verwaltung (CAC) bekräftigte diesen Monat zudem, dass alle generativen KI-Dienste im Einklang mit den sozialistischen Grundwerten der Partei stehen müssen.

KI muss sozialistischen Grundwerten folgen

China ist eines der ersten Länder, das umfassende Regeln zum Umgang mit Deepfake-Technologie vorgelegt hat. Andere wie Taiwan, England und einige US-Staaten wie Florida gehen bereits gesetzlich gegen bestimmte Teilbereiche wie künstlich erstellte Pornos und gefälschte Politiker-Reden vor. Andernorts arbeitet man daran, bestehende Regelwerke an die neuen Gefahren anzupassen, zum Beispiel in Singapur, wo der Personal Data Protection Act (PDPA), der die Erhebung, Verwendung und Weitergabe personenbezogener Daten regelt, hinsichtlich Deepfake-Risiken erweitert wird.

Auch die Europäische Union will mit einem Regelwerk zur künstlichen Intelligenz, dem „AI Act“, Deepfakes eindämmen. Demnach soll eine Kennzeichnung betreffender Inhalte aber bis auf Weiteres auf freiwilliger Basis geschehen. Kritiker dieser Lösung, etwa SPD-Chefin Saskia Esken, finden, das sei das zu wenig, um echten Schaden abzuwehren.

Schnelles Handeln ist in jedem Fall angesagt. Mit immer größeren Bandbreiten können schon bald nicht mehr nur Personen, sondern ganze Szenarien so realistisch gefälscht werden, dass man sie nicht von tatsächlichen Ereignissen unterscheiden kann. Der KI-Experte Kai-Fu Lee schreibt in seinem jüngsten Buch, einem Zukunftsausblick ins Jahr 2041, dass Anti-Deepfake-Programme bald so normal sein werden wie Anti-Viren-Software.

Sowohl Facebook als auch Google haben bereits Preise für die beste Deep-Fake-Erkennungssoftware ausgelobt. Doch auch die Fälschungen dürften dabei immer besser werden. Ein Katz-und-Maus-Spiel mit unbekanntem Ausgang, glaubt Lee. Er sagt: Wir müssen uns an eine Welt gewöhnen, in der wir noch mehr als heute alles hinterfragen müssen, was uns im Netz serviert wird. Auch deshalb wird es ohne verbindliche Gesetze und entsprechende Strafen nicht gehen.

Mehr zum Thema