So kontrovers digitalpolitische Debatten geführt werden, ein Bekenntnis bildet gemeinhin den kleinsten gemeinsamen Nenner: Es gilt, die digitale Souveränität Europas zu stärken. Jenseits davon endet vielfach die Geschlossenheit. Zu verschieden scheinen die Interessen derer, die bei Digitalisierung vor allem an skalierbare Geschäftsmodelle denken und die Überzeugungen jener, die sich hinter dem viel zitierten Selbstverständnis „Digitalpolitik ist Gesellschaftspolitik“ versammeln. Jetzt mehren sich die Anzeichen, dass sich am Beispiel eines europäischen KI-Sprachmodells in der Praxis zeigen könnte, wie sich gesellschaftliche und ökonomische Interessen bei der Entwicklung einer Hyperscaler-Infrastruktur ergänzen. Definiert der Staat seine Rolle im Innovationsökosystem neu, könnte sich daraus der Impuls für ein neues politisches Verständnis von „Forschungs- & Innovationspolitik als Gesellschaftspolitik“ entwickeln.
Anwendungsfall Europäisches Sprachmodell
Sprachmodelle sind Enabler moderner Dialogsysteme, mit denen niedrigschwellige und inklusive Mensch-Maschine-Schnittstellen angeboten werden können. Präsent in vielen Haushalten sind bislang vor allem Sprachassistenzsysteme, die in Smartphones, Smart-Speakern und anderen Endgeräten integriert sind. 38 Prozent der Deutschen nutzen Sprachassistenten. Für Unternehmen und öffentliche Verwaltung sind die Anwendungsszenarien vielfältig: Ob als digitale Einkaufsberater:innen, zur Automatisierung von Hotlines oder als Schnittstelle zu den Bürger:innen. In der Regel integrieren Dialogsysteme verschiedene Funktionen, die gesprochene oder geschriebene Sprache erkennen, verarbeiten und synthetisieren. Dabei handelt es sich meist um hybride Systeme, die sowohl regelbasierte Algorithmen als auch Sprachmodelle nutzen.
Während die Dialogsteuerung häufig
mittels regelbasierter Algorithmen erfolgt, übernehmen immer häufiger Sprachmodelle
das Textverstehen und die Texterzeugung. Sprachmodelle sind tiefe neuronale Netze, die mittels großer
Datenmengen vortrainiert werden. Dabei bilden sie ein Sprach- und
Faktenverständnis aus. Das wohl bekannteste Sprachmodell GPT-3 verfügt über 175
Milliarden Parameter. Weltweit ist nur das chinesische Sprachmodell Wudao 2.0 mit 1,75 Billionen Parametern noch komplexer. Einmal trainiert, kann das Modell
mittels Feintuning, auf kleineren Datensätzen z. B. für das Erkennen von
Sentiments (Meinungen oder Stimmungen) trainiert werden.
Strukturelle Abhängigkeit mit gesellschaftlichen und ökonomischen Folgen
Ein vergleichbar leistungsfähiges Sprachmodell wie
GPT-3 gibt es in Europa bislang nicht, auch wenn beispielsweise das Start-up Aleph Alpha daran arbeitet. Damit besteht eine strukturelle Abhängigkeit von den
USA: Wollen deutsche Unternehmen mit dem System arbeiten, müssen sie
Unternehmens- und Kund:innendaten an US-Server übermitteln. Die Folgen sind gesellschaftlich wie ökonomisch erheblich. So ist bei
außerhalb der EU betriebenen Sprachmodellen nicht nur der Datenschutz berührt. Auch
könnte auf Dauer die europäische Sprachenvielfalt gefährdet sein, wenn Sprachtechnologien kleine Sprachfamilien oder regionale Akzente nicht berücksichtigen. Ökonomisch gibt es zwischen europäischen Anbietern und Technologiekonzernen
aus den USA kein level playing field. Wenn ein Unternehmen in Deutschland
Dialogsysteme aufbauen will, erreicht es nur eine geringe Wertschöpfungstiefe,
weil es seine Produkte und Services lediglich via API-Schnittstelle auf Basis
von Infrastruktur aus Drittländern betreiben kann. Daher fordert etwa die KI-Wirtschaft ein europäisches Sprachmodell.
F&I-Politik als Gesellschaftspolitik? Das Momentum ist da!
Einiges spricht dafür, dass es gelingt, am Beispiel eines europäischen Sprachmodells in der Praxis zu zeigen, wie sich gesellschaftliche und ökonomische Interessen bei der Entwicklung von Hyperscaler-Infrastruktur gegenseitig verstärken. Das Momentum scheint da. Dafür sprechen drei Gründe:
1)
Eine vielversprechende Initiative
Mit dem Projekt OpenGPT-X gibt es bereits eine vielversprechende Initiative. Das Konsortium wird im Rahmen des Gaia-X-Förderwettbewerbs unterstützt. Die Basisversion soll zunächst in deutscher und englischer Sprache trainiert werden, eine Ausweitung auf andere europäische Sprachen ist explizit angelegt. Ziel ist es, die Technologie für verschiedene Branchen über Gaia-X-Schnittstellen zur Verfügung zu stellen. Es wird sich zeigen, ob die gesellschaftlichen Potenziale voll ausgeschöpft werden. Dazu wird es darauf ankommen, das Projekt konsequent in Hinblick auf europäische Werte und unter Einbindung zivilgesellschaftlicher Expertise zu entwickeln und auszurollen.
2)
Das Timing stimmt
Bislang sind die Netzwerkeffekte, die etablierte Sprachmodelle erzeugen, noch nicht zu groß. Das lässt Spielraum, ein europäisches Sprachmodell aufzubauen. Ein Glücksfall. Gerade weil es bei Hyperscalern auf das richtige Timing ankommt, kann das Beispiel eines europäischen Sprachmodells F&I-Politik ermutigen, dauerhaft vor die Lage zu kommen. Ziel muss es sein, ein Foresight-gestütztes Monitoring zu etablieren, mit dem potenzielle Schlüsseltechnologien frühzeitig erkannt und europäische Entwicklungen angestoßen werden können, wie es die EFI-Kommission in ihrem Jahresgutachten vorschlägt.
3) Rolle des Staates im Innovationsökosystem wird neu austariert
Die Chancen stehen gut, dass der Staat künftig eine
proaktivere Rolle in der F&I-Politik einnimmt. Im Fokus steht dabei der
Ansatz, öffentliche Beschaffung als Hebel für Innovation zu nutzen. Das Prinzip: Staatliche Nachfrage ermöglicht die Entwicklung von Schlüsseltechnologien,
indem innovative Anwendungen durch den Öffentlichen Sektor eingekauft werden. Darin
liegt nicht zuletzt die Chance für eine wertegeleitete F&I-Politik. Rafael
Laguna bringt das Prinzip auf den Punkt: Als Gesellschaft sollten wir „unser Geld dahin geben, wo unsere Werte sind“. Die
Corona-Pandemie eröffnet hier ein Möglichkeitsfenster, für eine stärker
steuernde Rolle des Staates im Allgemeinen und einen größeren Stellenwert der innovativen öffentlichen Beschaffung
im Speziellen.