Seit Ende November fluten sie regelmäßig die Bildschirme von Nutzern sozialer Medien – die Rede ist von Screenshots von Texten, die vom Computerprogramm ChatGPT generiert wurden und sich lesen, als wären sie von einem Menschen geschrieben worden. Nur wenige Tage nachdem das Tool von seinem Entwickler Open AI veröffentlicht wurde, probierten es bereits mehr als eine Million Nutzer begeistert aus.
Dieser Erfolg hat generative Künstliche Intelligenz zu einem dominierenden Thema in der Technologiebranche gemacht. Gleich zu Beginn des Jahres wurde Open AI mit 29 Milliarden Dollar bewertet; am 23. Januar verkündete Microsoft, dass es sich mit einem mehrjährigen „Multimilliarden-Dollar“-Investment beteiligen wolle. Während die Gesellschaft noch damit beschäftigt ist, die Auswirkungen von ChatGPT zu reflektieren, ist das Nachfolgemodell GPT-4 wohl schon fast fertig entwickelt. Wie sind solche Systeme zu nutzen und zu regulieren, um ihr ökonomisches Potenzial zu entfalten und gleichzeitig ihre potenziellen Gefahren zu minimieren?
Wahrscheinlich, aber wahr?
Der jüngste Technologiedurchbruch ist vor allem auf die zunehmende Größe der Sprachmodelle zurückzuführen, was an der Anzahl der Parameter und der Größe der Trainingsdaten gemessen wird. Deep Learning erlaubt es auf dieser Grundlage, die Wahrscheinlichkeit einer Wortfolge genau vorherzusagen. Entscheidend ist also, dass große Sprachmodelle nicht anstreben, die beste oder wahrhafteste Antwort zu geben, sondern sich stets auf grammatikalisch und semantisch korrekte Sätze mit einem hohen Wahrscheinlichkeitswert beschränken.
Diese probabilistische Natur ermöglicht es Anwendungen wie ChatGPT, nicht einfach existierende Texte zu kopieren, sondern völlig Neuartiges zu erschaffen. Dadurch entsteht ein enormes Potenzial, Wissen zu demokratisieren und ökonomischen Wohlstand zu schaffen. Doch wie bei jeder neuen Technologie sollte man auch hier bedenken, wie sie missbraucht werden kann. Algorithmische Zusammenfassungen können Fehler oder veraltete Informationen enthalten oder Nuancen und Unsicherheiten überdecken, ohne dass die Nutzer es bemerken.
Diese Fehler sind nicht nur irritierend, sondern können negative gesellschaftliche Auswirkungen haben. Insbesondere besteht die Gefahr, dass KI-Sprachmodelle Umweltschäden, soziale Ungleichheit und politische Fragmentierung verschärfen. Das Trainieren und Entwickeln dieser Modelle ist finanziell und ökologisch kostspielig, was etablierte Digitalgiganten begünstigt und den CO2-Fußabdruck verschlechtert. Die Trainingsdaten scheinen marginalisierte Gemeinschaften nicht angemessen zu repräsentieren; sexistische und rassistische Verzerrungen sind vielfach nachgewiesen. Die Möglichkeit, mit ChatGPT Falschinformationen in selbstbewusster und kontextsensitiver Sprache zu generieren, potenziert die Möglichkeiten von Manipulatoren, kostengünstig plattformübergreifende Desinformationskampagnen zu führen.
Sollte ChatGPT reguliert werden?
Diese Probleme werfen die Frage nach einer möglichen Regulierung auf. Anstelle eines rigorosen Verbots oder einer Detailregulierung, die zukünftige Innovationen bremsen könnte, ist zunächst eine spezifische digitale Mündigkeit der Nutzenden notwendig. Gemeint ist damit eine informierte und technisch reflektierte Anwendung der neuen Sprachmodelle auf breiter gesellschaftlicher Ebene. Denkbar wären beispielsweise Aufklärungskampagnen an Schulen und Universitäten.
Aufgrund der Unsicherheit über den zukünftigen Innovationspfad sollte sich die europäische Politik darüber hinaus auf die Schaffung sensibler Rahmenbedingungen beschränken, die allerdings noch fehlen. Der Digital Markets Act zielt auf sogenannte Gatekeeper ab und definiert dafür hohe Schwellenwerte, die Open AI noch lange nicht erfüllen wird. Der Digital Services Act enthält Verpflichtungen für Anbieter von digitalen Vermittlungsdiensten, worunter Suchmaschinen fallen. Dies könnte relevant werden, falls Microsoft seine Pläne umsetzt, ChatGPT in Bing zu integrieren. Doch die Sorgfaltspflichten sind ebenfalls nach Art und Größe des Dienstes gestaffelt. Am relevantesten erscheint das geplante KI-Gesetz (AI Act), welches zurzeit aktualisiert werden soll, um generative Sprachmodelle als Allzweck-KI-Systeme zu erfassen. Schnelle Standards sind aber auch hier nicht zu erwarten.
Rahmenbedingungen für eine sichere und produktive Anwendung
Um eine sichere und produktive Anwendung zu gewährleisten, sind neben digitaler Mündigkeit gewisse Rahmenbedingungen unerlässlich. Dafür hat das Centrum für europäische Politik (cep) heute ein 5-Säulen-Modell vorgeschlagen, das Transparenz der Modelle, Wettbewerb der Anbietenden, fairen Zugang, Standards zur Vorbeugung von Missbrauch sowie den Schutz geistigen Eigentums und persönlicher Daten einfordert.
Große Sprachmodelle sind eine Black Box. Selbst wenn Programmierschnittstellen verfügbar sind, gibt es keinen Zugang zu den Modellgewichten oder Trainingsdaten. Die fehlende Einsehbarkeit der populären Modelle erschwert es, diese holistisch zu benchmarken oder für bestimmte Anwendungen anzupassen. Entwickler sollten daher darlegen, welche Trainingskorpora genutzt wurden und welche Logik von den verwendeten Algorithmen verfolgt wird. Entscheidend ist zudem, dass einzelne Sprachmodelle keine dominierende Marktstellung erhalten, die ihre Programmierschnittstelle in einen Flaschenhals für nachgeordnete Industrien verwandeln würde. Ansonsten drohen ähnliche Monopolisierungstendenzen wie in der Plattformökonomie.
Um sozialen Ungleichheiten entgegenzuwirken ist ein fairer und verlässlicher Zugang zu dieser neuen Wissensressource notwendig. So plant Open AI mittlerweile einen bezahlten Zugang. In einer multipolaren Weltwirtschaft, die von geopolitischer Rivalität im Digitalbereich geprägt ist, kommt erschwerend hinzu, dass die großen Sprachmodelle fast ausschließlich aus den USA oder China kommen. Um strategische Abhängigkeiten zu vermeiden, könnte die Entwicklung eines europäischen Alternativmodells gefördert werden, dessen Trainingsdaten demokratischen Grundsätzen entsprechen. Auch wenn dies auf den ersten Blick radikal erscheint, bedeutet Passivität letztlich, dass man sich langfristig von opaken Sprachmodellen abhängig macht, deren implizite Werturteile von außen nicht nachvollziehbar sind.
Systematische Regelungen und Standards für Sprachmodelle können Missbrauch vorbeugen. Entwickler sollten verpflichtet werden, bestimmte Beschränkungen einzubauen, um Desinformation entgegenzuwirken, ihre Ergebnisse überwachen, um toxische Inhalte auszufiltern, und missbräuchliche Nutzer sperren. Denkbar wären auch europäische Standards für das Trainieren von großen Sprachmodellen, die transparente Algorithmen und CO2-Neutralität vorschreiben. Schließlich gibt es unbeantwortete Fragen bezüglich geistigen Eigentums, der Privatsphäre und des Datenschutzes. Das liegt daran, dass Trainingsdaten oft aus dem Internet gescrapt werden, ohne eine Genehmigung einzuholen.
Eine Umsetzung dieser Rahmenbedingungen könnte das Vertrauen der Bevölkerung in die neue Technologie verstärken und damit Innovationen schneller realisieren. Zugleich würden durch ein besseres Verständnis generativer KI-Modelle und ihre regulatorische Einbettung diffuse Ängste über eine Ersetzung menschlicher Kreativität genommen. Dann wäre diese Technologie eine echte Chance, Marktmacht zu diffundieren, Echokammern zu öffnen und Wissen zu demokratisieren.
Anselm Küsters leitet den Fachbereich Digitalisierung und Neue Technologien am Centrum für Europäische Politik (cep) in Berlin. Sein Gastkommentar basiert auf dem heute erscheinenden cepAdhoc Nr. 1 (2023) zu ChatGPT.