Erweiterte Suche

Digitalisierung & KI

Standpunkte Die Deepfake-Regulierung im AI-Act ist nur der Anfang

Der Deepfake-Experte Mateusz Łabuz ist Doktorand an der TU Chemnitz und Berufsdiplomat im Außenministerium Polens.
Der Deepfake-Experte Mateusz Łabuz ist Doktorand an der TU Chemnitz und Berufsdiplomat im Außenministerium Polens. Foto: privat

Der AI Act könnte ein Meilenstein sein – mit globalem Vorbildcharakter. Positive Veränderungen habe es im Text auch bei der Regulierung von Deepfakes gegeben, schreibt Mateusz Łabuz. Doch realistisch betrachtet werde die Verordung schädliche Deepfakes nicht stoppen.

von Mateusz Łabuz

veröffentlicht am 30.01.2024

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Der Kurznachrichtendienst X musste gerade die Suche mit dem Namen der Künstlerin Taylor Swift vorübergehend einschränken. Der Grund ist eine Flut an gefälschten pornografischen Fotos des US-Popstars.

Doch inzwischen gibt es auch schon einige Beispiele von Deepfakes, die keine Personen abbilden, sich aber als wirksame Manipulationswerkzeuge erwiesen haben. Im Mai 2023 wurde etwa ein gefälschtes Bild, das eine Explosion in der Nähe des Pentagons zeigte, über soziale Medien verbreitet und führte zu kurzfristigen Bewegungen an der New Yorker Börse. Laut Bloomberg war dies „möglicherweise der erste Fall, in dem ein KI-generiertes Bild den Markt bewegte“.

Fortschritte bei der Definition von Deepfakes

Beim AI Act wurde inzwischen beschlossen, den Subjektivitätsbereich zu erweitern und sich auf das Subjekt beziehungsweise Objekt der Darstellung zu beziehen. Es geht bei der Definition von Deepfakes nicht mehr nur darum, Menschen zu zeigen, sondern auch Objekte, Orte oder anderen Entitäten sowie Ereignisse.

Laut dem aktuellen Text des AI Act bezeichnet der Begriff „Deepfake“ KI-generierte oder manipulierte Bild-, Audio- oder Videoinhalte, die existierenden Personen, Objekten, Orten oder anderen Entitäten oder Ereignissen ähneln und einer Person fälschlicherweise als authentisch oder wahrhaftig erscheinen würden. Dies sind bedeutende Fortschritte, die anerkannt werden müssen. Die Verhandlungsführer der EU erfüllen die Erwartungen, dass die Definition von Deepfakes präzise und im Einklang mit anderen Rechtsakten sein würde, darunter die Richtlinie zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt. Auch andere Unschärfen und Unstimmigkeiten mit früheren EU-Rechtsakten, zu denen ich mich kritisch geäußert habe, wurden nun zu Recht entfernt.

In welche Risikokategorie sollen Deepfakes fallen?

Die Problematik von Deepfakes wurde von Anfang an im Rahmen der Transparenzverpflichtungen des AI Acts angesprochen. Deepfakes wurden in die dritte Kategorie, also als KI-Systeme mit geringem oder minimalem Risiko, eingestuft. Hier geht es vor allem um Regeln zur Stärkung der Vertrauenswürdigkeit. Dieser richtige Ansatz weist jedoch einige Lücken auf, da er sich hauptsächlich auf die beabsichtigten Verwendungszwecke spezifischer KI-Systeme konzentriert und „verbindliche Anforderungen für vordefinierte Verwendungsbereiche anwendet“, wodurch einige Fehlanwendungen und Missbräuche unreguliert bleiben.

Die Ausklammerung von Deepfakes aus der Hochrisikokategorie entspricht dem allgemeinen Konzept der Risikobewertung des AI Acts, berücksichtigt aber nicht den grundlegenden böswilligen Missbrauch der Technologie. Eine vernünftige Lösung könnte darin bestehen, Deepfakes in der Kategorie mit geringem oder minimalem Risiko zu belassen, mit spezifischen Transparenzverpflichtungen und der Unterscheidung sehr konkreter Untergruppen beziehungsweise Ausnahmen für die Neueinstufung in die Hochrisikokategorie, oder sogar direkte Verbote zu verhängen, wie es im Fall von Deepfakes pornografischer Inhalte („Deep Porn“) erforderlich ist.

Darüber hinaus ist es hinsichtlich einer Stärkung des gesellschaftlichen Bewusstseins und der Widerstandsfähigkeit wichtig, aufzuzeigen, warum Deepfakes eine Bedrohung darstellen. Auch hier wurden erhebliche Fortschritte erzielt. Der neue Recital 70a macht die mit KI-Produkten verbundenen systemischen Risiken deutlich, die von der Realität nur schwer zu unterscheiden sind.

Der eingeführte grundlegende Schutz gegen Deepfakes beruht auf Transparenz über den KI-Einsatz. Allerdings gibt es nur allgemeine Hinweise darauf, wie solche Haftungsausschlüsse aussehen könnten. Standardisierungsarbeit und empirische Experimente werden in diesem Bereich notwendig sein, um die Empfänger vor raffinierten Manipulationen zu schützen. In der Begründung des AI Acts wird darauf hingewiesen, dass die Verpflichtung zur Offenlegung es den Empfängern ermöglichen soll, in Kenntnis der Sachlage eine Entscheidung zu treffen oder sich aus einer bestimmten Situation zurückzuziehen.

Das Frühwarnsystem zielt darauf ab, die Empfänger, ihr Bewusstsein und ihr Vertrauen in das Informationssystem zu schützen. Die positiven Auswirkungen der Offenlegungsvorschriften sollten dann hauptsächlich im Zusammenhang mit Desinformation oder Medienkonsistenz betrachtet werden.

Es braucht ergänzende Regeln für mehr Schutz

Es sollte jedoch hinterfragt werden, ob Transparenzverpflichtungen allein die Empfänger tatsächlich wirksam vor Desinformation schützen können. Von staatlichen oder nichtstaatlichen Akteuren mit böswilligen Zielen zu erwarten, dass sie die KI-Offenlegungsvorschriften einhalten, ist offensichtlich nicht realistisch. Transparenzverpflichtungen werden eine Rolle dabei spielen, die Auswirkungen oder sogar die Anzahl der im Informationsraum zirkulierenden Deepfakes zu verringern, aber sie werden kein Hindernis für böswillige Akteure darstellen. In diesem Zusammenhang werden einfache technische Lösungen, die auf der Offenlegung beruhen, zahnlos sein.

Die Erwartungen sollten an die tatsächlichen Möglichkeiten zur Beeinflussung der Realität angepasst werden, zumal die Bestimmungen über schwerwiegende Deepfakes nicht das Schlüsselelement der Verordnung sind und das Schutzniveau, das sie dagegen bietet, bestenfalls grundlegend ist. Die Urheber eines großen Teils von Deepfakes werden weder den Transparenzpflichten nachkommen noch sich um die Risikokategorien kümmern.

Deep Porn unterliegt aufgrund seiner spezifischen Art und Weise der Verbreitung niemals irgendwelchen Offenlegungsvorschriften. Ebenso Kinderpornografie, die Nachahmung von Familienangehörigen zum Zweck der Erpressung (einschließlich Imposter Scams) oder die Förderung von Hate Speech unter Verwendung von Bildern berühmter Personen. In diesem Zusammenhang ist es notwendig, an anderer Stelle strengere Bestimmungen einzuführen, die darauf abzielen, Personen, insbesondere Frauen und schutzbedürftige Gruppen, vor (geschlechtsspezifischer) Gewalt, Ausbeutung, Demütigung oder Belästigung zu schützen.

Auch politische Werbung muss einbezogen werden

Die Transparenzverpflichtungen können auch bei der Kennzeichnung politischer Werbung von Bedeutung sein. Obwohl sich der AI Act nicht direkt auf sie bezieht, muss das wachsende Potenzial von Deepfakes für Manipulationen erkannt werden, die nicht auf Dritte abzielen, sondern darauf, Defizite der eigenen Reden zu beseitigen oder falsche persönliche Merkmale zu erzeugen. Transparenzverpflichtungen können ein Ansatzpunkt für verstärkte Haftungsausschlüsse in der politischen Werbung sein.

Die Regulierung der EU zu Transparenz und Targeting politischer Werbung sollte sich direkt auf Deepfakes beziehen und zusätzliche Maßnahmen zum Schutz der Gesellschaft schaffen. Dies geschieht derzeit nicht und das könnte bedeuten, dass wir die Gelegenheit verpassen, dort, wo es möglich ist, einen positiven Einfluss zu nehmen.

Die aktuelle Arbeit am AI Act hat gezeigt, dass die EU-Gesetzgeber bereit sind, Änderungen umzusetzen, die eine größere interne Kohärenz ermöglichen. Dies ist der erste Schritt auf dem Weg zu wirksamen und sinnvollen Regelungen. Nun ist es Zeit für eine systemische Analyse der Bereiche, in denen Deepfakes negative Auswirkungen auf gesellschaftliche und politische Prozesse haben. Sie allein durch das Prisma der politischen Manipulation zu betrachten, ist eine erhebliche Vereinfachung, die die ganze Welle negativer Phänomene außer Acht lässt, die zu einem Vertrauensverlust in den Staat und in die Demokratie, aber auch zu einer Untergrabung des kollektiven Sicherheitsgefühls führen können.

Mateusz Łabuz ist Doktorand an der Technischen Universität Chemnitz, Berufsdiplomat im polnischen Außenministerium und Dozent für Cybersicherheit an der Universität der Nationalen Bildungskommission in Krakau.

Die Analyse, wie tiefgreifende Deepfakes im AI Act geregelt sind (oder nicht), wurde in der Zeitschrift "Applied Cybersecurity & Internet Governance" veröffentlicht.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen