Standpunkte KI im Zeitlupentempo

Vor lauter Angst vor einer plötzlich erwachenden Superintelligenz droht aus dem Blick zu geraten, wie Innovation normalerweise funktioniert: langsam und voller Reibungsverluste. Wer KI regulieren oder strategisch nutzen will, muss sie als normale Basistechnologie begreifen. Die eigentlichen Gefahren – und Chancen – liegen dort, wo technischer Fortschritt auf praktische Umsetzung trifft.
Lernen Sie den Tagesspiegel Background kennen
Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.
Jetzt kostenfrei testenDie Debatte um Künstliche Intelligenz (KI) wird auf unzähligen Schauplätzen geführt: Während die einen über Diskriminierung in Trainingsdaten streiten, diskutieren andere über nationale Wettbewerbsfähigkeit oder die Angst, von KI ersetzt zu werden (sogenannte technologische Arbeitslosigkeit). So unterschiedlich die Themen klingen mögen, kreisen sie doch um eine gemeinsame – oft unausgesprochene – Annahme: dass in kürzester Zeit, von einem Moment auf den anderen, eine Künstliche Allgemeine Intelligenz (AGI) auftauchen wird. Ist bald der Punkt erreicht, an dem „die“ superintelligente Maschine erwacht und alles auf den Kopf stellt? Oder vollzieht sich der Wandel doch kleinteiliger?
In den frühen Tagen von ChatGPT drehte sich diese Zeitfrage vor allem darum, ob man sich auf ferne „existenzielle Risiken“ konzentrieren oder lieber die heute schon sichtbaren Schäden durch Verzerrungen und Diskriminierungen regulieren sollte. Heute dominiert ein anderes Tempo-Narrativ: Umtriebige, niemals müde KI-Agenten sollen schon morgen Programmierer, Anwälte oder Radiologen ersetzen. Ein jüngst viel zitiertes Szenario mit dem Titel „AI 2027“, das von einer Non-Profit-Organisation um den ehemaligen OpenAI-Forscher Daniel Kokotajlo beschrieben wird, raunt sogar von einer softwaregetriebenen Intelligenzexplosion in nur wenigen Monaten.
KI als „normale Technologie“?
Die beiden Princeton-Forscher Arvind Narayanan und Sayash Kapoor setzen dieser fiebrigen Erwartungshaltung Nüchternheit entgegen. In ihrem neuen Artikel „AI as Normal Technology“ beschreiben sie KI als ganz gewöhnliche Basistechnologie, vergleichbar mit frühereren Technologieschüben. Auch Elektrizität, Computer oder das Internet, so das Argument, hätten ihre Kraft erst entfaltet, nachdem Unternehmensprozesse umgestellt, Mitarbeiter geschult und rechtliche Rahmenbedingungen angepasst worden seien. Das alles dauerte nicht Monate, sondern Jahrzehnte.
In einem begleitenden Essay schlussfolgern die beiden: Selbst wenn morgen ein Unternehmen verkünden würde, es habe „AGI“ erreicht, wäre das kein betriebswirtschaftlich oder politisch handlungsrelevanter Einschnitt. Erst die langsame Diffusion in Branchen und Verwaltungen übersetze technische Exzellenz in wirtschaftliches Wachstum – und genau hier herrschten hartnäckige Reibungsverluste.
Ein solcher Blick auf die Zeitachse verschiebt auch das Verständnis von KI-Risiken. Wenn sich eine Technologie schleichend durchsetzt, liegen die größten Gefahren nicht in einem plötzlichen Kontrollverlust, sondern in altbekannten Fehlerquellen: schlecht gemachte Software, ungetestete Einsatzbedingungen, übereilte Rollouts.
Geschichte als Spiegel
Wer die These von der KI als „normaler“ Technologie ernst nimmt, sollte einen Blick in die Werkstattgeschichte anderer Basistechnologien werfen. Der Wirtschaftswissenschaftler W. Brian Arthur beschreibt in seinem Buch The Nature of Technology anschaulich, wie deren praktischer Nutzen erst durch eine langsam zunehmende Verflechtung entsteht. Er nennt dies „structural deepening“ und illustriert es am Beispiel des Gasturbinenmotors.
Der Urtyp von Frank Whittle aus dem Jahr 1936 basierte auf einem einzelnen Radialverdichter, weil er technisch am einfachsten zu realisieren war. Als mehr Schub gefordert war, ersetzten ihn die Ingenieure durch mehrere in Reihe geschaltete Axialverdichter. Um das Aggregat sowohl in dünner als auch in dichterer Luft betreiben zu können, kamen später Leitschaufeln hinzu, die von einem Regler gesteuert wurden. Gefährliche Rückströmungen bremste schließlich ein Ventil mit eigener Sensorik – eine Kaskade von Ergänzungen, die Leistung brachten, aber den Fortschritt zwangsläufig verlangsamten.
Etwas Vergleichbares geschieht derzeit mit den Large Language Models, auf denen KI fußt. Am Anfang stand das rohe Nachtrainieren mit menschlichem Feedback – ähnlich wie Stützräder am Kinderfahrrad. Inzwischen werden Plugins angedockt, die Modelle dürfen Taschenrechner aufrufen oder Code ausführen; Forscher füttern sie mit synthetischen Daten zum besseren „Nachdenken“, lassen mehrere Modelle gegeneinander antreten oder bauen ganze „Werkzeugketten“ auf, die erst durch Python-Skripte wandern, bevor sie antworten. Jede Erweiterung behebt eine Schwachstelle, schafft aber gleichzeitig neue Abhängigkeiten und erfordert neue Absicherungen.
Dieser Prozess verlängert zwangsläufig die praktische Umsetzung. Auch die vielbeschworene Agentenökonomie – KI-Programme, die selbstständig im Browser klicken oder Bestellungen auslösen – weist bislang eher Stolpergeschichten auf, weil den Agenten Kontext fehlt und Normen, etwa zum Schutz der Privatsphäre, sie einschränken. Wer nun einwendet, dass sich digitale Innovationen schneller verbreiten als Hardware, übersieht einen zentralen Engpass: die Organisationskultur. Ob früher bei der Elektrifizierung oder heute bei der Cloud-Migration in Behörden – überall bremsen eingefahrene Routinen und Skepsis. Warum sollte das bei KI anders sein?
Politik zwischen Sprint und Marathonlauf
Was folgt daraus für die deutsche und europäische Digitalpolitik? Wenn die Verbreitung von KI länger dauert als angenommen, verschiebt sich der Fokus auf die Regulierung. Vor diesem Hintergrund ist es alarmierend, dass sich die Prioritäten im aktuell dritten Entwurf des EU Code of Practice für General-Purpose-KI auffällig verschoben haben. Zivilgesellschaftliche Organisationen beklagen, dass aufgrund des starken Big-Tech-Lobbyings illegale Diskriminierung und Grundrechtsverletzungen nur noch als „optionale“ Risiken aufgeführt werden, während sich die obligatorische Risikoliste fast ausschließlich um langfristige Szenarien wie „menschlicher Kontrollverlust“ dreht.
Eine ähnliche Schieflage zeigt sich in der Außenwirtschaftspolitik. Die USA haben die Exportkontrollen für Hochleistungschips verschärft, um Chinas KI-Fortschritte um ein paar Monate zu verlangsamen – eine Intervention, die nur in einer Welt Sinn macht, in der wenige Monate den Unterschied zwischen Kontrolle und Kontrollverlust ausmachen. Wenn sich KI jedoch als normale Technologie herausstellt, so warnen Narayanan und Kapoor, wird diese Annahme hinfällig – und die Zusammenarbeit unnötig erschwert.
Einen Lichtblick bietet hingegen die „Apply AI Strategy“, die in Brüssel momentan entworfen wird. Noch bis zum 4. Juni können Unternehmen, Kommunen und NGOs Vorschläge einreichen, wie KI-Anwendungen in verschiedenen Bereichen schneller Fuß fassen können. Die Initiative liest sich wie das Gegenstück zum Katastrophen-Narrativ: Nicht das ferne Unheil steht im Vordergrund, sondern das zähe Alltagsgeschäft der Einführung – Schulungen, Pilotprojekte, interoperable Datenformate. Hier entscheidet sich, ob Europa von KI profitiert oder an alten Ineffizienzen festhält.
Fazit: Tempo-Blindstellen vermeiden
Wer KI als normalen Technologiemarathon begreift, sieht die Risiken in schlecht gemachter Software, verzerrten Datensätzen und sozialer Ungleichheit – alles Probleme, die über Jahrzehnte wirken können. Für die Politik folgt daraus zweierlei: Sofortmaßnahmen müssen die Alltagsschäden begrenzen, und langfristige Politik muss die mühsame Diffusion begleiten, statt sich von apokalyptischen Perspektiven treiben zu lassen. Fortschritt geschieht – aber scheibchenweise, von Menschen gestaltbar.
Anselm Küsters ist Vertretungsprofessor für Digital Humanities an der Universität Stuttgart und leitet den Fachbereich Digitalisierung und Neue Technologien am Centrum für Europäische Politik (cep).
Lernen Sie den Tagesspiegel Background kennen
Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.
Jetzt kostenfrei testen