Weltweite Standards setzen, ist typischerweise eine komplexe Angelegenheit. Harmonisierungsprozesse erfordern eigentlich Verhandlungen und Ausdauer. Besonders für sich dynamisch entwickelnde Regulierungsbereiche ist das besonders misslich und führt dazu, dass sich Gesetzgeber nach Abkürzungen umschauen.
Der Ansatz der Europäischen Union in der Digitalpolitik ist insofern beispielgebend. Seit Jahren verfolgt die EU verstärkt eine einseitige Strategie. Sie schafft Regeln mit dem Ziel, einen globalen Standard auszuformen und zu Nachahmungen anzuregen. Vereinfacht gesprochen: Was für den europäischen Binnenmarkt gut ist, müsse schließlich auch in der ganzen Welt als Lösungsansatz erwogen werden. Dieses Muster war besonders deutlich bei der Datenschutzgrundverordnung zu beobachten.
Ende 2020 wiederholte die EU diesen Ansatz mit ihren Vorschlägen zum Digital Services Act, Digital Markets Act und Data Governance Act. Das hört sich zunächst nach einem freien Wettbewerb der Regulierungsideen an. Im Ausgangspunkt ist das auch der Fall, denn die EU kann nicht-europäische Staaten nicht zur Übernahme eigener Standards zwingen, sondern eine solche lediglich – mit aller vorhandenen soft power – vorschlagen. Nicht unterschätzt werden sollte dabei die ökonomische Relevanz des EU-Binnenmarkts. Er ist für Unternehmen weltweit bedeutsam und wirkt als Katalysator für europäische Standards. Unternehmen richten ihre Produkte an den oftmals hohen Vorgaben aus – und prägen damit auch Praktiken in nicht oder weniger regulierten Drittstaaten.
Dieser Strategie der „Aufwärtskonvergenz“ legt die EU zwei Prämissen zugrunde. Zunächst geht die EU davon aus, dass europäische Gesetzgebungsakte in andere Länder und Kontinente transplantiert werden können. Schon darüber kann man streiten. Vor allem möchte die EU allerdings inhaltliche Richtungsentscheidungen in die Welt tragen, denn die verschiedenen Legislativakte sind Ausprägung des europäischen Grundrechtsverständnisses. Ein solcher Export ist nicht vornherein illegitim, er ist allerdings abhängig von dem Bedürfnis nach dem konkreten „Produkt“.
KI: Eine Regulierung „ins Offene“
Das gilt insbesondere für die Regulierung von Zukunftstechnologien. Hier sind die Leitplanken oftmals noch gar nicht eingeschlagen oder zumindest im Fluss. Die Pfadabhängigkeiten sind gering und lassen Raum für Rezeptionen. Vor diesem Hintergrund nutzt die EU etwa gerade erneut ihren first-mover-advantage: Besonders wirkmächtig stellte die EU-Kommission im April ihren Vorschlag zur Regulierung Künstlicher Intelligenz vor. Der Vorschlag vollzieht in mehrfacher Hinsicht eine Regulierung „ins Offene“.
Zunächst bietet der Vorschlag den ersten kohärenten Ansatz für einen KI-Regulierungsrahmen. Anwendungen Künstlicher Intelligenz werden darin in vier Risikokategorien eingeteilt – und hiernach abgestuft reguliert. Ein solcher risikobasierter Ansatz ist zielführend – manch einer hätte sich einen entsprechenden Ansatz für den Datenschutz ebenso gewünscht. Darüber hinaus ist der Vorschlag auch in der Sache von einem offenen Ansatz geprägt.
Regulierungsrisiko Moving Target
Die EU-Kommission ist sich nämlich der Tatsache nur zu bewusst, dass die Fortentwicklungsgeschwindigkeit moderner Technologien rasant ist – und ein moving target zu regulieren demzufolge schwierig und voraussetzungsvoll. Es besteht das allfällige Risiko, Rechtsunsicherheit zu produzieren und Innovationen strukturell zu erschweren. Lange abzuwarten und zu beobachten ist allerdings oftmals auch nicht der Weisheit letzter Schluss. Die (Nicht-)Regulierung der Digitalökonomie über viele Jahre hinweg ist insofern ein gängiges Negativbeispiel. Deswegen setzt die EU-Kommission jetzt auf einen sich langsam vortastenden, aber dennoch proaktiven Regulierungsansatz, wonach sich erst im Laufe der Zeit herauskristallisieren kann, welche Anwendungen im Einzelfall noch unter den Begriff Künstliche Intelligenz und in welche Risikokategorie fallen.
Damit nutzt die EU-Kommission Elemente moderner Tech Governance und vollzieht eine Hinwendung zur Governance by Governance. Bislang setzten Private oftmals mit ihren Produkten selbst die (faktischen) Regeln für den digitalen Raum. Der Gesetzgeber gefiel sich in der Rolle einer Feuerwehr für besonders schwerwiegende Auswüchse. Prägend war und ist der gesetzgeberische Einfluss dadurch nicht. Nunmehr sollen Private zwar weiterhin innovative Modelle entwickeln – und zur Präzisierung des Normbestands beitragen. Der Gesetzgeber verlässt aber die nur reagierende Position – anything goes ist Vergangenheit.
Das aktuelle Vorgehen fügt sich vielmehr in das Selbstverständnis der EU eines globalen Trendsetters für den digitalen Raum ein. Dieser Befund mag auf den ersten Blick verwundern, da man digitale Innovationen typischerweise nicht als erstes mit der EU verbindet. Es ist allerdings absehbar, dass der reine Blick auf die technische Innovation zu kurz springt. Im kommenden Jahrzehnt werden Regelgeber weltweit versuchen, die Oberhand über den Umgang mit Technik zurückzuerobern – ob immer zum Wohle der Grundrechte steht auf einem anderen Blatt. Zumindest vor diesem Hintergrund mag leise positiv stimmen, dass die Ansätze der EU in der einen oder anderen Weise Beachtung finden und potenziell Schutzwirkung zugunsten von Grundrechten entfalten werden. Kopien europäischer Gesetze sind dafür gar nicht immer erforderlich (und passend). Oft wird es bereits ausreichend sein, dass die Unionsgesetzgebung einen überzeugenden Referenzanker auswirft. Der Technikregulierung stehen in jedem Fall goldene Jahre bevor.
Amélie Heldt ist Wissenschaftliche Mitarbeiterin am Leibniz-Institut für Medienforschung | Hans-Bredow-Institut, Hamburg und assoziierte Forscherin am Humboldt-Institut für Internet und Gesellschaft, Berlin. In ihrer Dissertation beschäftigt sie sich mit der Drittwirkung von Meinungsfreiheit auf Social Media Plattformen.
Moritz Hennemann ist Inhaber des Lehrstuhls für Europäisches und Internationales Informations- und Datenrecht an der Universität Passau sowie Leiter der Forschungsstelle für Rechtsfragen der Digitalisierung an der Universität Passau. Schwerpunkt seiner Forschung ist die globale Daten- und Datenschutzregulierung.