Erweiterte Suche

Cybersecurity

Standpunkte Bestechend echt – und echt problematisch

Lena-Maria Böswald, Democracy Reporting International
Lena-Maria Böswald, Democracy Reporting International Foto: Privat

Mit Stable Diffusion ist eine KI-Software frei zugänglich, die Texteingaben in erstaunlich gute Bilder umwandelt. Verstörend sind sie auch, findet die Datenexpertin Lena-Maria Böswald von Democracy Reporting International. Warum Text-zu-Bild-Generatoren Risiken für unseren Medienkonsum – und die Demokratie – bergen, zeigt eine neue Studie auf.

von Lena-Maria Böswald

veröffentlicht am 28.09.2022

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Alles begann mit Boris Johnson, gefangen in einem Fischernetz. Ein groteskes Bild, computergeneriert von Craiyon (früher bekannt als DALL-E mini), einem kleinen Open-Source-Tool. Es eroberte das Internet im Sturm. Seine einfache Formel: Ein Satz wird in das System eingegeben, dieses wandelt das Geschriebene in ein Bild um – je detaillierter die Eingabe, desto besser das Ergebnis. Außerdem können verschiedene Zeichenstile, Kunstepochen oder Kameraeinstellungen gewählt werden.

Als Vorbild für Craiyon diente DALL-E, ein Wortspiel aus dem Pixar-Roboter Wall-e und Salvador Dalí. Hinter DALL-E, der großen Schwester der Mini-Version, steckt Open AI, eine Firma für Künstliche Intelligenz aus dem Silicon Valley. Dessen Nachfolger, DALL-E 2, erzeugt jetzt noch fotorealistischere Bilder und kann bisher nur von ausgesuchten Tester:innen genutzt werden. Nun gibt es Stable Diffusion, die erste frei zugängliche, quelltextoffene Software, die glaubwürdige Bilder erstellt.

So funktionieren die Diffusionsmodelle

Was alle drei vereint, ist das maschinelle Lernen, das hinter der Bildkomposition steckt: sogenannte Diffusion Models. Diffusionsmodelle funktionieren, indem ein künstliches neuronales Netz auf Bilder und deren Textbeschreibungen trainiert wird. Das sind Computersysteme, die vage von biologischen neuronalen Netzen inspiriert sind. Sie lernen Aufgaben anhand von Beispielen. So können sie beispielsweise Bilder identifizieren, die Corgis enthalten, indem sie vorher eine große Menge Bilder analysieren, die von Menschen als „Corgi“ oder „kein Corgi“ gekennzeichnet wurden. Anschließend können sie das Gelernte zur Identifizierung von Corgis auf andere Bilder anwenden.

Diffusionsmodelle arbeiten mit Bildrauschen (engl. noise). Man kann sich das wie bei altem analogem Film vorstellen – die Körnung im Bild ist hier aber Mittel zum Zweck: Indem dem Bild nach und nach mehr Körnung hinzugefügt wird, wird dessen Inhalt so verfälscht, bis das Bild fast nur noch aus Bildrauschen besteht. Hier setzt dann der Bildkompositionseffekt ein: Das künstliche neuronale Netzwerk versucht, den Verfälschungsprozess umzukehren und die ursprüngliche Bilddatei wiederherzustellen, bis wieder ein neues, klares Bild entsteht. Obwohl GANs („Generative Adversarial Networks“) bei der realistischen Bilderzeugung große Erfolge erzielt haben, ist deren Training nicht einfach, und der Prozess langsam und instabil. Diffusionsmodelle liefern im Gegensatz dazu Bilder mit höherer Auflösung.

Millionen von frei zugänglichen, hauptsächlich auf englischsprachigen Texteingaben basierende Bilder liefern die Grundlage von Text-zu-Bild-Generatoren. Durch die Analyse tausender Bilder von Corgis wissen sie auch, wie Corgis auszusehen haben – mit viel zu kurzen Beinen im Vergleich zum langen Körper, weiß-braunem Fell und oftmals angeborenem Stummelschwanz. Nicht jeder Corgi ist zwar in der Realität weiß-braun, aber fast jedes Google-Ergebnis für Corgis ist weiß-braun. Auf Bilder von Menschen übertragen gehen mit ungefilterten Trainingsdaten aus dem Netz deshalb stereotype Darstellungen einher: Eine Stewardess ist weiß und weiblich, ein Bauarbeiter weiß und männlich. Das ist höchstproblematisch, da es gesellschaftlich verankerte Vorurteile verstärkt und verbreitet, jedoch mit gefilterten Trainingsdaten korrigierbar, solange die Software noch nicht allseits verfügbar ist.

Potenzial für politische Desinformation

Ein größeres Problem stellt mangelnde Selbstregulierung bei öffentlich zugänglichen Generatoren dar: Im Gegensatz zu seinem exklusiven Vorreiter DALL-E2, der mit Ein- und Ausgabefiltern arbeitet, gibt es bei Stable Diffusion so gut wie keine Einschränkungen, welche die Nutzer:innen daran hindern, Bilder mit unangemessenen Inhalten oder prominenten Persönlichkeiten zu erstellen. Die Software versucht zumindest, menschliche Gesichter zu erzeugen. Auch wenn die meisten Gesichter noch verschwommen, verzerrt oder verpixelt sind, lässt sich doch erahnen, welche Politiker:innen als Zielscheibe dienen. Eine Datenbank liefert groteske Ergebnisse: Putin und Erdogan gemeinsam auf einer Pride Parade, Angela Merkel als Burlesque-Tänzerin oder Joe Biden, der vom US-Militär verhaftet wird.

Stellen wir uns also vor, ein politischer Widersacher erfindet eine falsche Schlagzeile über Bundeskanzler Olaf Scholz, baut darum eine plausible Geschichte und setzt künstliche Intelligenz ein, um ein Bild zu erstellen, das die Falschinformation visuell untermauert. Die Kombination aus Open Source und ungefilterten Bildausgaben rückt den Missbrauch der Software für Desinformationszwecke in greifbare Nähe – vor allem für Bilder, die weniger Personen, sondern zum Beispiel Kampfhandlungen in den Vordergrund rücken.

Ein Schnappschuss von Olaf Scholz im Nachtclub als realistischer gefälschter Beweis? Recht unglaubwürdig. Scholz in derselben Situation mit Maske, sodass die Unstimmigkeiten der Bildgeneration weitestgehend überdeckt werden? Schon plausibler – gerade, wenn das erstellte Bild klein und unscharf ist. In den sozialen Medien, die von Schnelligkeit, Empörung und affektivem Teilverhalten leben, lässt sich ein Mangel an Qualität immer mit mangelnder Hardware begründen. Solche computergenerierten Bilder können außerdem mit anderen Bildbearbeitungs- und Manipulationswerkzeugen kombiniert werden, um ihre Glaubwürdigkeit zu erhöhen.

Desinformationsexpert:innen, die wir befragt haben, gehen davon aus, dass es noch dauern wird, bis sich Text-zu-Bild-Generierung als Methode der Wahl für politische Desinformation durchsetzen wird. Dass das Bedrohungspotential mit ungehindertem Zugang stetig wächst, bezweifelt jedoch niemand.

Bildforensiker:innen sagen: Bis jetzt müssen wir uns noch keine Sorgen machen – zu fratzenartig sind die Abbildungen bekannter Persönlichkeiten, zu einfach kann Falschinformation geprüft werden, zu schnell ist die Produktion eines „Cheapfakes“, ein mit sehr einfachen technischen Mitteln bearbeitetes existierendes Bild oder Video. Für Nutzer:innen sozialer Medien, die nicht oft mit KI-erzeugten Medien in Berührung kommen, kann aber bereits leicht verändertes Material außerhalb seines tatsächlichen Kontexts Anlass genug sein, Falschinformation zu teilen.

Je mehr Daten jedoch in Text-zu-Bild-Generatoren eingespeist werden, je größer die Wahrscheinlichkeit, dass aus unscharfen Fratzen langsam menschliche Gesichter werden. Die Vermutung der Expert:innen: Eine mit technischen Fortschritten einhergehende automatisierte Produktion von falschen Inhalten könnte zu einer Bildüberflutung führen, die die Möglichkeiten der forensischen Erkennung von Fälschungen überfordern könnte.

Die dargestellte Fehlinformation kann zwar noch immer leicht auf ihre Richtigkeit überprüft werden. Dies bedeutet jedoch nicht zwangsläufig, dass wir nicht glauben, was wir sehen. Es ist bereits möglich, realistische fiktive Situationen zu erstellen, solange diese nicht personenbezogen sind.

Wie man die Fakes eindämmen könnte

Eine technische Lösung wäre, mit KI hergestellte Bilder automatisch mit unsichtbaren Wasserzeichen oder einsehbaren Metadaten zu versehen, die auf die Ursprungsquelle hinweisen. Die Initiative C2PA versucht seit Jahren, für diese „Provenance“-Technologie zu werben. Provenance-Technologie ist jedoch nur vielversprechend, wenn sich Softwareanbieter bereit erklären, diese Technik vor der Bildgenerierung in ihre Produkte einzubauen. Im Moment werden auf Texteingaben basierende Bilder nur mit sichtbaren Wasserzeichen markiert, die weniger als Schutz und mehr zum Marketingzweck dienen.

Auf EU-Ebene versucht man bereits, den Gebrauch von Künstlicher Intelligenz für böswillige Zwecke mit dem Artificial Intelligence Act (AI Act) zu regulieren. Weil Text-zu-Bild-Software zu neuartig ist, schließt sie der gesetzliche Rahmen noch nicht ein. Das könne sich jedoch aufgrund seiner vagen Definition von Künstlicher Intelligenz schnell ändern. In den sozialen Medien würden solche Bilder unter die bereits bestehenden Richtlinien für manipulierte Medien aller großen Plattformen fallen. Deren Wirkung ist bis heute aber unklar und intransparent. Feststeht daher: Viel mehr gesellschaftliche, technische und plattformspezifische Vorkehrungen werden notwendig sein, um die Wahrscheinlichkeit zu verringern, dass Text-zu-Bild-Software zum Desinformationsmittel wird.

Lena-Maria Böswald ist Datenanalystin bei Democracy Reporting International. Ihre Forschungsschwerpunkte liegen auf neuen Desinformationsbedrohungen, Hassrede und Wahlbeobachtung in den sozialen Medien. Gestern ist die vom Auswärtigen Amt mit finanzierte Studie „What a Pixel Can Tell: Text-to-Image Generation and its Disinformation Potential“ erschienen, die am Donnerstagnachmittag vorgestellt wird

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen