Die vergangenen Monate waren geprägt vom Abschluss der Verhandlungen zur KI-Verordnung der Europäischen Union und der Executive Order zu KI in den Vereinigten Staaten, von AI Safety Summits und der Ankündigung vielfältiger weiterer KI-Initiativen. Die Regulierung von KI, die zugehörige Standardisierung und auch die Entwicklung von Best-Practice-Richtlinien und ernsthaften Selbstverpflichtungen sind in der Tat essenzielle Elemente eines sinnvollen Umgangs mit dieser Technologie. Es geht darum, Risiken zu begrenzen und gleichzeitig Innovation weiterhin zu ermöglichen und zu fördern.
Diese intensive Diskussion verstellt jedoch bisweilen den Blick auf eine wichtige Limitierung: Selbst mit einer noch so ausgefeilten Regulierung von KI ist es unmöglich, all ihren Herausforderungen zu begegnen. KI-Risiken lassen sich nicht allein durch Regulierung beherrschen.
Generative KI befeuert Gefahr von erfundenen Personen
Das gilt ganz besonders für generative KI. Seit der Verbreitung von Deepfakes im Jahr 2018, spätestens aber seit dem Aufkommen von Werkzeugen wie Stable Diffusion, Midjourney und ChatGPT im Jahr 2022 ist es möglich, beliebige Texte, Dialoge, Bilder und Videos in schier endloser Menge zu fälschen und im digitalen Raum zu verbreiten.
Noch disruptiver ist, dass sich mit generativer KI auch Personen fälschen lassen – und zwar nicht nur überzeugende digitale Klone echter Personen, sondern auch eine praktisch unbegrenzte Anzahl erfundener „Menschen“. Diese können wie echte Menschen agieren und beispielsweise einen Hype um ein bestimmtes Produkt oder eine bestimmte Firma auslösen oder eine Mehrheit für eine bestimmte politische Meinung vortäuschen. Sie können sogar als Influencer auftreten, Follower gewinnen und mit ihnen in den Dialog treten.
Machen wir uns nichts vor: Die technischen Möglichkeiten zur Täuschung sind breit verfügbar, die Motive zu ihrer Nutzung liegen auf der Hand – seien sie kommerziell, politisch oder geostrategisch. Es wäre naiv anzunehmen, dass die bereits bekanntgewordenen Beispiele für KI-gestützte Manipulationen nicht immer weiter zunehmen und den digitalen Raum letztendlich fluten und grundlegend verändern.
Wir sind an einem Wendepunkt, der der Situation unserer physischen Umwelt in den 1970er Jahren gleicht. Damals wurde durch Analysen wie den Bericht des Club of Rome bewusst, dass die Menschheit dabei war, durch Umweltverschmutzung und Ressourcenverschwendung unseren physischen Lebensraum unbrauchbar zu machen. Heute stehen wir vor der Aussicht, dass unsere digitale Umwelt, auf die wir inzwischen für wirtschaftliches Handeln, für demokratischen Diskurs und soziale Interaktion angewiesen sind, in ähnlicher Weise gefährdet ist. Wenn wir nicht mehr wissen, was echt und was falsch ist, wenn wir nicht mehr wissen, ob wir es überhaupt mit einem echten Menschen zu tun haben, wenn wir nicht mehr wissen, ob eine scheinbare Mehrheit tatsächlich eine Mehrheit ist, wenn wir nur noch zynisch alles und jeden infrage stellen können, dann verlieren wir de facto den digitalen Raum und dessen enorme Vorteile und Potenziale.
Das digitale Zeitalter als Epoche einer Vertrauenskrise
Die Krise, die wir anpacken müssen, ist eine Krise des Vertrauens. Vertrauen ist eine Grundvoraussetzung fast jeden menschlichen Handelns. Selbst so einfache und faktische Informationen wie das Datum unserer eigenen Geburt haben wir von anderen Menschen erfahren. Wir müssen anderen Menschen vertrauen können – in diesem Beispiel unseren Eltern oder dem Krankenhauspersonal – um sogar etwas Grundlegendes wie unser eigenes Alter exakt zu bestimmen. Selbst die Richtigkeit von Dokumenten wie Fotos oder Geburtsurkunden können wir nicht aus eigenem Wissen heraus sicher feststellen, sondern müssen sie uns zum Beispiel von Standesbeamten bestätigen lassen. Auch fast alle anderen Fakten, auf die wir uns verlassen oder an denen wir uns orientieren, kennen wir streng genommen nur aus zweiter und dritter Hand. Wir sind zwingend darauf angewiesen, dass wir anderen Menschen und Institutionen vertrauen können.
Im digitalen Raum werden drei Arten von Vertrauen relevant:
- Erstens: Das Vertrauen, dass mein Gegenüber ein echter Mensch ist und dass dieser echte Mensch in dem Kontext, in dem ich mich gerade bewege (beispielsweise ein Forum oder eine Plattform) nicht Hunderte von Accounts betreibt, sondern nur eines.
- Zweitens: Das Vertrauen, dass ein Mensch ehrlich zu mir ist, mich also nicht bewusst anlügt oder mit Desinformationen versorgt.
- Drittens: Das Vertrauen in die Urteilsfähigkeit eines anderen Menschen, das heißt, das Vertrauen darin, dass das, was er oder sie teilt, von ihm oder ihr zuvor sorgfältig und kompetent gefiltert worden ist.
Verantwortung im digitalen Raum als systemisches Problem
Vertrauen ist etwas sehr Persönliches. Die Tatsache, dass ich jemandem in ein oder mehreren der oben aufgeführten Weisen vertraue, heißt nicht, dass jemand anderes dies in gleichem Ausmaß tut. Vertrauen ist dezentral. Es kann und darf nie einen absoluten, zentral geführten „Trust Score“ oder Ähnliches geben. Außerdem ist Vertrauen abgestuft: Wir bewegen uns immer irgendwo im Spektrum zwischen absolutem Vertrauen und absolutem Misstrauen. Der Grad von Vertrauen kann sich außerdem mit der Zeit ändern, wenn wir positive oder negative Erfahrungen mit einem Menschen machen.
Der Missbrauch von generativer KI zur Erzeugung großer Mengen von Fakes und Bots macht Vertrauen im digitalen Raum fast unmöglich. Er gefährdet damit den digitalen Raum als die Umwelt, in der wir inzwischen einen beträchtlichen Teil unseres privaten, beruflichen und gesellschaftlichen Lebens zubringen. Die Werkzeuge für diesen Missbrauch befinden sich längst in den Händen von böswilligen Akteuren. Regulierung im Sinne einer Non-Proliferation kommt hier schlichtweg zu spät. Zudem erreicht Regulierung häufig gar nicht die Länder und Jurisdiktionen, in denen sich solche „Bad Actors“ verschanzen.
Die Medienbildung als oft vorgeschlagene Maßnahme ist zwar grundsätzlich immer begrüßenswert, hilft uns hier aber nicht weiter – weil Fakes inzwischen zu „gut“ sind. Die Verantwortung, sich nicht täuschen zu lassen, sollte ohnehin nicht auf das Individuum abgewälzt werden – sie ist ein systemisches Problem, das auch systemisch angegangen werden muss. Erkennungswerkzeuge für KI-generierte Fakes und Bots werden immer wieder als Lösung genannt, erlauben aber bestenfalls ein Wettrüsten mit Fälschungstools. Für kurze Texte wie Produktbewertungen oder Posts in Kommentarspalten sind sie prinzipiell wirkungslos, da nicht genügend Länge vorliegt, um eine auch nur annähernd zuverlässige Unterscheidung zu treffen. Wasserzeichen helfen zwar in bestimmten Nischen, sind aber ebenfalls keine umfassende Lösung.
Wir brauchen nachhaltige digitale Vertrauensökosysteme
Was tun? Anstatt eine schmalspurige Kontroverse um die Schärfe der Regulierung von KI zu führen, müssen wir uns ganz grundsätzlich mit der Frage auseinandersetzen, wie Vertrauen im digitalen Raum funktioniert und auch im Zeitalter generativer KI möglich bleiben kann. Wir müssen die Infrastrukturen, die Protokolle und die Werkzeuge entwickeln, um die einzelnen Nutzenden zu befähigen und zu unterstützen, die oben genannten drei Arten von Vertrauen in ihren Netzwerken nachzuverfolgen und für sich transparent zu machen. Liberale Demokratien müssen dabei der Versuchung widerstehen, Fakes und Bots durch eine Totalüberwachung des digitalen Raums nach dem Vorbild autoritärer Länder zu überwinden.
Es geht dabei auch um eine grundlegende Fairness im digitalen Raum: Die Freiheit, (fast) alles posten zu können, was wir wollen, wird hohl, wenn die Posts echter Menschen von einer Masse von Fakes und Bots verdrängt und nur nach langem Scrollen überhaupt noch zu sehen sind. Das demokratische Prinzip „ein Mensch, eine Stimme“ ist nicht nur im Kontext von Wahlen essenziell, sondern beschreibt in der doppelten Bedeutung des Worts „Stimme“ auch die Fairness im digitalen Raum. Jeder Mensch sollte eine ähnliche Chance haben, gehört und gesehen zu werden.
Die Ermöglichung von Vertrauen im digitalen Raum ist eine Aufgabe, die weit über einzelne Plattformen hinausgeht. Es geht um eine grundlegende Resilienz des digitalen Raums gegenüber Bad Actors und um die Sicherung unseres digitalen Lebens- und Wirtschaftsraums. Spätestens jetzt ist die Zeit reif, auf deutscher, europäischer und internationaler Ebene die nötigen institutionellen Strukturen dafür zu schaffen. Vertrauen lässt sich nicht in Geld umtauschen und umgekehrt. Daher sind zunächst insbesondere staatliche, neutrale und philanthropische Akteure aufgefordert, diese wichtige Herausforderung mit ihren Ressourcen anzupacken und nachhaltige Vertrauensökosysteme zu schaffen.
Sebastian Hallensleben leitet die europäische KI-Normung zum AI Act (CEN-CENELEC JTC21) sowie die Expertengruppe zu AI Risk & Accountability in der OECD. Er ist Leiter Digitalisierung und KI im VDE Verband der Elektrotechnik Elektronik Informationstechnik e.V. Im KI Park verantwortet er das Moonshot-Thema Digital Trust.