Wirtschaftspolitische Debatten um Künstliche Intelligenz (KI) in Europa suggerieren häufig, dass eine Spannung zwischen Innovation und Sicherheit besteht. Das täuscht: Sichere und vertrauenswürdige KI-Anwendungen in den Fokus der KI-Wirtschaftspolitik zu nehmen, ist eine vielversprechende Wachstumsstrategie für das deutsche KI-Ökosystem.
Deutschland und die EU haben zuletzt die Entstehung großer Tech-Märkte, ob fortgeschrittene Computer-Hardware oder große soziale Netzwerke, weitgehend verpasst. Heute hat kaum ein großes Technologieunternehmen seinen Sitz in Deutschland, und die Wertschöpfung durch das Internet findet anderswo statt. Im Bereich Künstliche Intelligenz (KI) droht sich das zu wiederholen. Dabei gäbe es ein attraktives und für Deutschland prädestiniertes Marktsegment: Angewandte KI, die sicher und vertrauenswürdig ist.
Dieses Marktsegment werden deutsche Unternehmen nicht automatisch übernehmen. Dafür ist der internationale KI-Markt zu umkämpft. Eine KI-Politik, die hier ein bisschen fördert, da etwas reguliert, und ansonsten auf die starke deutsche KI-Forschung hofft, wird nicht ausreichen. Staatliche Förderung und Regulierung müssen aufeinander abgestimmt sein und einem strategischen Kalkül folgen. Das heißt: entlang heimischer Stärken fördern und günstige Nischen entschieden besetzen.
KI-Anwender entlasten
In Deutschland und der EU gibt es viele Unternehmen, die sogenannte „Basismodelle“ (General Purpose Artificial Intelligence, GPAI) wie GPT-4 als Bestandteil ihrer Produkte nutzen. Diese europäischen KI-Anwender stehen international gar nicht mal so schlecht da: Sie haben alle Ressourcen, die für ihre Anwendungen nötig sind; durch Branchenkenntnis entwickeln sie wertvolles Spezialistenwissen über sinnvolle Anwendung von KI; und es gibt massenhaft vielversprechende Nischen, in denen noch ungenutztes Potenzial zur KI-Wertschöpfung liegt. Dazu gehören zum Beispiel Model-Finetuning und App-Entwicklung für lokale Sprachen und Anwendungsfälle, KI für die öffentliche Hand und deren Modernisierung (Govtech), und Evaluierung und Lizenzierung vertrauenswürdiger und gesetzmäßiger KI-Nutzung gemäß EU-Recht (Regtech). Wenn deutsche Unternehmen ein vertrauenswürdiges Angebot auf der Anwendungsebene machen können, können sie schnell an Marktanteil gewinnen.
Dabei würde ihnen einerseits allgemeine wirtschaftspolitische Unterstützung helfen, von steuerlichen und bürokratischen Entlastungen für Gründungen hin zu gezielter Förderung, beispielsweise im Aufbau von Rechenkapazitäten oder in Public-Private-Partnerships.
Aber das Anwender-Ökosystem profitiert auch von einer günstigen Verteilung der regulatorischen Lasten. Das Geschäft der Anwender ist grundsätzlich abhängig von Basismodellen und damit von der Beziehung zu den Anbietern dieser Modelle. Ohne klare Regeln für große Basismodell-Entwickler können diese deshalb ihre Macht am Markt für Abhängigkeiten, hohe Preise und Abwälzung der Rechenschaftspflichten ausnutzen. Um erfolgreich zu sein, benötigen Anwender also sichere, vertrauenswürdige Basismodelle, sodass Risiko und Verantwortlichkeit für missbräuchliche Nutzung nicht bei Anwendern hängen bleiben.
Dabei hilft eine stringente Ausgestaltung und Durchsetzung der GPAI-Auflagen des AI Act. Und homogene internationale Standards, die ein „Plug-and-Play“ zwischen verschiedenen Basismodellen ermöglichen, würden Anwendern eine stärkere Marktposition ohne Abhängigkeiten sichern. Dafür kann sich die Bundesregierung in internationalen Foren einsetzen
Ambitionierte KI-Nutzung ermöglichen
Deutschland kann ambitionierte KI-Nutzung entlang bestehender Stärken fördern: Der Einsatz von KI in Industrie und Mittelstand verspricht Effizienzgewinne entlang der gesamten Wertschöpfungskette – von automatisierter und augmentierter Produktion über „Predictive Maintenance“ bis zum Kundenservice. Die Kapazitäten und das Interesse sind in der Industrie vorhanden; das Nummer-Eins-Hindernis bleibt Vertrauen: Haftungsrisiken und Reputationsschäden verlangsamen die KI-basierte Wertschöpfung. Je klarer die Regulatorik insbesondere für die meist nicht-europäischen Basismodell-Entwickler wie Open AI, und je stringenter deren Durchsetzung auf europäischer und nationaler Ebene, desto geringer wird dieses Risiko.
Ein weiterer für Deutschland vielversprechender Bereich ist „Trustworthiness“, also Vertrauenswürdigkeit. Deutschland genießt einen ausgezeichneten Ruf für Qualitätsstandards. Dieses Siegel könnte auf den Bereich KI-Evaluationen und -Assurance ausgeweitet werden. Dieser Bereich wächst schnell, denn den großen Potenzialen für Produktivitätsgewinn durch KI steht heute das Risiko durch die Unzuverlässigkeit und Unberechenbarkeit der Technologie gegenüber. Stringente Standards verhindern, dass Anwender die Katze im Sack kaufen müssen. „Certified in Germany“ kann zu einem wertvollen internationalen Gütesiegel werden, wenn die Bundesregierung durch Förderung, Kooperationen mit privaten Anbietern und Gewährleistung hoher gesetzlicher Standards den Weg ebnet.
Keine Chancen im Wettbewerb um Basismodelle
In den ersten Monaten nach dem Launch von ChatGPT Ende 2022 war ein weit verbreiteter Reflex in Deutschland und Europa: Auch wir brauchen jetzt Allzweck-Basismodelle wie Open AI oder Google Deepmind sie entwickeln, und sollten unsere KI-Politik darauf ausrichten! Diese Sichtweise ist zuletzt seltener geworden, und zwar aus guten Gründen: Es gibt aktuell keinen wettbewerbsfähigen deutschen Basismodell-Anbieter, und vorerst wird das auch so bleiben.
Bei Basismodellen gilt „Winner takes it all“: Die Modelle des Marktführers sind in der Tendenz in allen Preisklassen, allen Anwendungen, und auf allen Sprachen am besten. Deshalb nimmt der Wettbewerb an der Speerspitze der Entwicklung auch immer weiter Fahrt auf: Große Technologieunternehmen wie Google und Microsoft investieren immer größere Summen, weil sie wissen, dass halbherzige Basismodell-Entwicklung zum Scheitern verurteilt ist. Es gibt kaum Nischen für Anbieter aus der zweiten Liga.
Steuergeld besser gezielt einsetzen
Ein wirtschaftspolitischer Fokus darauf, diesen Rückstand aufzuholen, wäre aktuell also wenig erfolgsversprechend. Und exorbitant teuer. Zum Vergleich: Das gesamte europäische IPCEI-Förderprogramm für Mikroelektronik sah – für 43 Unternehmen – Förderung von 13 Milliarden Euro vor. Allein Microsoft investierte schon vor anderthalb Jahren zehn Milliarden Euro in Open AI. Steuergeld solcher Größenordnung in den Versuch der Wettbewerbsfähigkeit auf einem „Winner Takes it all“-Markt zu stecken, wäre wirtschaftspolitisch präzedenzlos und ist aktuell schwer vorstellbar. Deswegen greifen europäische Player stattdessen auf Geld und Infrastruktur von Tech-Riesen aus den USA zurück, wie zuletzt das in Frankreich ansässige Unternehmen Mistral. Wirkliche europäische Souveränität bringen Unternehmen mit vorwiegend nicht-europäischer Finanzierung aber nicht.
Für den KI-Standort ist es deshalb aktuell vielversprechender, Entlastung und Förderung da zu konzentrieren, wo Marktführerschaft realistisch ist. Das könnte perspektivisch auch Konzentrationseffekte befördern – in Bezug auf Talent, Rechenleistung und Reputation als führendes KI-Land –, die zukünftige europäische Basismodell-Entwicklung erleichtern könnten. Ob wir mittelfristig kompetitive heimische Basismodell-Entwickler oder ein CERN für KI in Europa wollen: alle ambitionierten Zukunftsprojekte sind vielversprechender, wenn im Hier und Jetzt der KI-Standort bestmöglich gestärkt wird.
Für eine fokussierte deutsche KI-Wirtschaftspolitik
Deutsche KI-Wirtschaftspolitik braucht strategische Fokussierung. Förderung und Regulierung auf sichere und vertrauenswürdige KI-Nutzung auszurichten ist vielversprechend: Das ermöglicht erfolgreiche Entwicklung von KI-Anwendungen, profitable KI-Nutzung durch führende deutsche Unternehmen, und stärkt die Reputation des Standorts. Die Bundesregierung kann diesen Weg durch gezielte Förderung und sichere Rechtsrahmen ermöglichen.
Anton Leicht ist Policy Specialist beim Kira Center, arbeitet zu wirtschafts- und sicherheitspolitischen Aspekten der KI-Politik, und promoviert zu demokratischer Regulierung fortgeschrittener KI-Systeme. Daniel Privitera ist Gründer und Executive Director des Kira Center, einem unabhängigen Think Tank für AI Policy. Er ist außerdem Lead Writer des „International Scientific Report on the Safety of Advanced AI“.