Erweiterte Suche

Digitalisierung & KI

Standpunkte Rohstoff Daten: Eine falsche Analogie bremst die europäische Digitalpolitik aus

Anselm Küsters, Fachbereichsleiter Digitalisierung und Neue Technologien am Centrum für Europäische Politik
Anselm Küsters, Fachbereichsleiter Digitalisierung und Neue Technologien am Centrum für Europäische Politik Foto: Cep

„Daten sind das neue Öl“ – diese Fehlannahme leitet die europäische Digitalpolitik auf Abwege. Anselm Küsters vom Centrum für Europäische Politik (cep) beleuchtet, warum Daten nicht mehr der primäre Engpass für europäische Unternehmen sind und fordert, dass die EU ihre Prioritäten überdenken sollte.

von Anselm Küsters

veröffentlicht am 09.10.2023

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Die Analogie von Daten als dem neuen Öl der digitalen Wirtschaft ist weit verbreitet. Bereits 2017 stellte der Economist fest: „Die wertvollste Ressource der Welt ist nicht mehr Öl, sondern Daten“. Ähnlich wie Öl im 20. Jahrhundert als treibende Kraft industrieller Prozesse und Innovationen galt, sind Daten heute scheinbar der Katalysator für technologischen Fortschritt, neue Geschäftsmodelle und marktbeherrschende Stellungen. Als Rohstoff für künstliche Intelligenz (KI) bilden Daten zunehmend die Grundlage unserer modernen Wirtschaft. Die Öl-Analogie hat sich bis heute hartnäckig im politischen Diskurs gehalten – leider, denn sie ist mittlerweile grundlegend überholt.

Wie die Öl-Analogie irreführt

Politikern wird mit dem Vergleich zwischen Daten und Öl suggeriert, dass sie sich im Zeitalter der digitalen Geopolitik – geprägt vom Wettrennen um KI-Modelle und Sorgen um Cybersecurity – auf Daten als wertvollste Ressource konzentrieren sollten. Entsprechend strebt die Europäische Union (EU) mit zahlreichen Initiativen wie etwa dem Data Act an, einen digitalen Binnenmarkt zu schaffen, in dem Daten frei fließen können – und damit besser nutzbar werden. Wo europäische Daten nicht ausreichend sind oder überhaupt nicht vorliegen, wie beispielsweise im Bereich der Social Media, schreiben der Digital Markets Act und der Digital Services Act Formen des Zugangs oder zumindest der Interoperabilität vor. Das fußt wiederum auf einer schnell wachsenden wissenschaftlichen Literatur, die die Rolle von Daten als Wettbewerbsfaktor betont.

Doch indem die Europäische Kommission dem Mythos von Daten als dem neuen Öl folgt, setzt sie die falschen Prioritäten. Denn die eigentliche Herausforderung für europäische Unternehmen liegt heutzutage nicht mehr in der Beschaffung von Daten, sondern im Zugang zu ausreichender Rechenleistung. Im Zeitalter omnipräsenter Sensoren, selbstgenerierbarer synthetischer Daten und einem breiten Netz an Datenbrokern verfügen die meisten Unternehmen über eine Fülle von Daten – oder können diese leicht lizenzieren. Hinzu kommt, dass viele Anwendungsmöglichkeiten an eine Schwelle stoßen, bei der der marginale Nutzen weiterer Daten den Aufwand ihrer Erhebung nicht mehr rechtfertigt. Schließlich zeigt die Ankunft von generativer KI, dass die zur Verarbeitung dieser Daten erforderliche Rechenkapazität von wenigen Big Tech-Unternehmen kontrolliert wird.

Daten vs. Rechenkapazität

Der Vergleich von Daten mit Öl mag für die frühe Ära der Big Data-Anwendungen berechtigt gewesen sein. Doch mit dem Aufkommen von immer genaueren Sensoren, einem weiten Feld an hochspezialisierten Datenvermittlern und der erfolgreichen Erzeugung und Verwendung synthetischer Daten wird er brüchiger. Synthetische Daten können heute künstlich und in großen Mengen erzeugt werden. Außerdem kann die Qualität von synthetischen Daten kontrolliert und angepasst werden, was sie flexibler als anderweitig erworbene Daten macht. So könnten synthetische Daten europäischen Unternehmen einen eleganten, weil DSGVO-konformen Ausweg aus ihrer risikoaversen Haltung des Datenminimalismus bieten.

Zudem wird immer offensichtlicher, dass einmal gesammelte Daten im Laufe der Zeit häufig an Relevanz und Wert verlieren. In der Forschung wird entsprechende Evidenz unter dem Stichwort des „abnehmenden Grenznutzens der Datenmenge“ zusammengetragen. Jenseits eines bestimmten Datenpunktes flacht die Verbesserung algorithmischer Systeme ab, was bedeutet, dass das Hinzufügen weiterer Daten nicht notwendigerweise zu einer besseren Leistung führt. Hinzu kommt der sogenannte „Long-Tail“-Effekt, bei dem exotische Fälle den Einsatz von KI erschweren. Gerade in einer Polykrise mit einschneidenden „schwarzen Schwänen“ wie der Covid-Pandemie wird die Nützlichkeit vorausschauender KI, die notwendigerweise auf älteren Daten trainiert wurde, geringer.

Die neueste Generation an generativer KI, wie sie dem Chatbot ChatGPT zugrunde liegt, erfordert neben Daten vor allem massive Rechenleistung, insbesondere in Form von Cloud Computing Servern sowie modernen Grafikprozessoren (GPUs). Doch die physische Verteilung dieser Rechenleistung ist weltweit ungleich verteilt. Länder wie die USA und Japan sowie private Unternehmen wie Amazon, Google oder Alibaba sind ihren Konkurrenten dank umfangreicher Investitionen in die notwendige Infrastruktur schon länger enteilt. Aus europäischer Sicht kommt erschwerend hinzu, dass das Training moderner KI-Modelle oft die grenzüberschreitende Übermittlung von Daten erfordert, etwa auf die Server von AWS. Dies kann datenschutzrechtliche aber zunehmend auch sicherheitspolitische Probleme mit sich bringen.

Im Kontrast zum Mythos von Daten als dem neuen Öl ist die moderne digitale Wirtschaft somit nicht nur wissensintensiv, sondern auch kapitalintensiv. Daten müssen konstant neu erhoben oder synthetisch erzeugt werden, damit sie schließlich mit enormer Rechenleistung ausgewertet werden können. In der sich entfaltenden Geschichte des digitalen Zeitalters sind Daten zwar nach wie vor relevant, doch die wirklichen Hebel der Macht scheinen die Infrastruktur der Datenverarbeitung und die Unternehmen zu sein, die sie kontrollieren.

Gesucht: Paradigmenwechsel in der EU-Digitalpolitik

Wenn synthetische Daten, schwarze Schwäne und umkämpfte GPUs die geo-ökonomische Bedeutung von Daten zunehmend verringern werden, muss sich dieser Wandel in der Digitalpolitik der EU niederschlagen. In einer Zeit, in der die europäischen Institutionen nach einer neuen Form der Industriepolitik suchen, um strategische Souveränität in der Polykrise zu erlangen, sind Cloud-Server und moderne Chips das neue Öl. Das mag sich mit der nächsten KI-Revolution erneut ändern, aber bis dahin sollte die EU ihre Prioritäten nicht mehr an schon veralteten Analogien ausrichten.

Was bedeutet das konkret? Angesichts des veränderten Technologie-Paradigmas sollte sich die EU weniger mit den Feinheiten des Binnenmarktes für Daten und Aktualisierungen der DSGVO beschäftigen denn mit möglichen Finanzierungsquellen für den Aufbau einer konkurrenzfähigen KI-Infrastruktur in Europa, wie sie etwa vom KI-Bundesverband in seiner LEAM-Machbarkeitsstudie konzipiert wurde. Erste Anzeichen für einen solchen Paradigmenwechsel gibt es bereits: Nach der Verabschiedung des Chips Acts hat die EU nun eine kartellrechtliche Untersuchung des von Nvidia beherrschten Chips-Marktes eingeleitet und plant, als Teil ihrer Strategie für wirtschaftliche Sicherheit, umfassende Risikobewertungen für Halbleiter- und KI-Technologien.

Zuletzt kündigte auch Kommissionspräsidentin Ursula von der Leyen in ihrer Rede zur Lage der Union an, europäischen KI-Startups und Mittelständlern den Zugang zu heimischen Supercomputern zu erleichtern, um deren Entwicklungszeiten zu verkürzen. In der Tat wurde etwa das beliebte Open-Source Sprachmodell BLOOM von einem Wissenschaftskollektiv auf dem Jean Zay Supercomputer in Frankreich trainiert. Allerdings weist der KI-Bundesverband darauf hin, dass bisherige Projekte mit europäischen Computern viel weniger GPUs nutzen, als für die modernste KI-Generation notwendig ist, und fordert daher zusätzlich eine neue, leistungsstärkere und flexibel nutzbare Supercomputing-Infrastruktur. Die EU muss also weitere Ausschreibungen aufsetzen.

Wenn die notwendigen Kosten für eine komplett eigenständige KI-Infrastruktur den fiskalischen Spielraum überschreiten, sollte man sich zumindest mit den Standortfaktoren beschäftigen, die die neue KI-Geopolitik und die Diffusion der Technologie prägen werden. Hier bestehen Ansatzhebel in Bezug auf zu strenge Bürokratie und Regulierung, das notwendige Upskilling der Bevölkerung, hohe Energiekosten und unzureichendes Risikokapital. Auch wenn diese Liste keineswegs vollständig ist und in Zukunft sicher neue kompetitive Herausforderungen für ein europäisches KI-Ökosystem auftreten werden, können diese Maßnahmen die angestrebte Souveränität und Resilienz fördern.

Anselm Küsters leitet den Fachbereich Digitalisierung und Neue Technologien am Centrum für Europäische Politik (cep) in Berlin.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen