Vor gut einem Jahr stellte die EU-Kommission ihren Entwurf vor, bis Ende 2023 soll das Gesetz fertig verhandelt sein: Der AI Act soll nicht weniger schaffen, als den internationalen Maßstab für Künstliche Intelligenz (KI) zu setzen. Die Kommission rühmt sich, weltweit als erstes eine Regulierung für KI vorzulegen. Die seit Jahren laufenden Debatten im Europäischen Parlament sind allerdings oft angstgetrieben. Der Fokus richtet sich zu oft auf Worst-Case-Szenarien und diffuse Ängste vor neuen Technologien.
Das müssen wir ändern. Wenn wir als Kontinent aus dem technologischen Dornröschenschlaf aufwachen und in der ersten Tech-Liga mitspielen wollen, müssen wir endlich auch die Chancen sehen und schaffen.
Wir müssen unseren europäischen Weg definieren, zwischen dem totalitären chinesischen Überwachungsstaat, der Technologie zur perfiden Unterdrückung der eigenen Bürger nutzt, und dem riskanten „Anything goes“ eines in vielerlei Hinsicht unregulierten US-Marktes.
Unsere Grundrechte müssen der Rahmen für KI sein. Weder staatliche Massenüberwachung noch Diskriminierungen, die aus dem Einsatz von Technologie entstehen, sind akzeptabel. Der AI Act muss die Grenzen des gesellschaftlich Akzeptablen ziehen, um unsere europäischen Demokratien und Werte für die Zukunft wetterfest zu machen. Denn auch in der EU gibt es Regierungen, die den Rechtsstaat aushöhlen und die Opposition überwachen lassen.
Potenziale sehen statt Ängste schüren
Weil wir die liberale Demokratie verteidigen müssen, kämpfe ich für das ausnahmslose Verbot biometrischer Fernerkennung zur Überwachung des öffentlichen Raums. Strafverfolgungsbehörden hoffen, Verbrechen vermeintlich leichter verfolgen oder verhindern zu können. Doch die meisten dieser Methoden sind in Feldversuchen nachweislich als unzuverlässig und diskriminierend bestätigt worden. Es gibt andere Mittel und Wege, Strafverfolgung zu stärken, ohne Grundrechte auszuhöhlen. Das Europäische Parlament muss die Tür für Massenüberwachung, die die Kommission geöffnet hat, zuschlagen.
Dieser Aspekt, der sich im Artikel 5 findet, wird seit einem Jahr intensiv und prioritär diskutiert. Dabei steckt in dem geplanten Gesetz vor allem viel Potenzial: nämlich die rechtliche Grundlage für den Innovationskontinent Europa.
Wir können unseren Unternehmen Freiräume für neue Ideen einräumen. Wir können die Nutzung neuer Technologien, selbst solcher mit einem gewissen Grad an Autonomie, im Alltag fördern. Wir können den gewinnbringenden Einsatz von KI ausweiten: zur Erforschung neuer Medikamente, zur besseren Früherkennung schwerer Krankheiten, zum Funktionieren der Smart Cities von morgen, für eine leistungsfähige, sich stets weiterentwickelnde Industrie, den Kreativitätssektor und vieles mehr. Das Potenzial ist so groß, das können wir uns heute kaum vorstellen. Daher muss uns der politische Spagat gelingen, nicht über zu regulieren, was bereits da ist. Und vor allem nicht kaputt zu regulieren, was einmal da sein könnte.
Digitaler Binnenmarkt mit gleichen Regeln
KI-Systeme müssen – genau wie klassische Produkte – sicher und vertrauenswürdig sein. Eine Angstdebatte wäre jedoch fehlgeleitet. Denn das Gegenteil ist nötig: Wir brauchen mehr Mut in Europa. Um Chancen zu sehen, und um jene zu fördern, die sie ergreifen. Um unseren Entwicklern in Start-ups, kleinen oder mittleren Unternehmen keine Stolpersteine in den Weg zu legen, sondern Sprungbretter zu bauen. Die Gefahr der Überregulierung, bürokratischer Lasten und teurer Compliance ist hoch. Aber mit einer klugen und klaren Regulierung, die Neugründungen von Unternehmen anregt sowie Upscaling erleichtert, räumen wir den Weg frei für Innovation made in EU.
Deshalb braucht KI – wie alle anderen digitalen Technologien – endlich den digitalen Binnenmarkt. Ein Binnenmarkt, in dem Unternehmen problemlos agieren und expandieren können, weil überall die gleichen Regeln gelten und durchgesetzt werden. Die Fehler aus der Datenschutz-Grundverordnung (DSGVO) dürfen wir nicht wiederholen und müssen Aufsicht europäisch lösen.
Der Gesetzentwurf der Kommission ist in den Grundzügen gut, lässt in wichtigen Aspekten allerdings Klarheit vermissen. Die Prämisse, dass höheres Risiko mehr und niedrigeres Risiko weniger Regulierung bedarf, ist zwingend logisch. Allerdings definiert die Kommission KI so breit, dass bereits simpelste Software wie Excel-Tabellen dazuzählen können. Sinn der Regulierung ist aber, vor allem die speziellen Charakteristiken von KI – wie Autonomie und den Black-Box-Effekt – zu erfassen. Dies muss sich zwingend in der KI-Definition niederschlagen. Es erscheint sinnvoll, die OECD-Definition zu verwenden. Auch, um auf internationaler Ebene anschlussfähig zu bleiben.
Risikobasierten Ansatz nachbessern, Rolle der General Purpose AI klären
Der risikobasierte Ansatz muss nachgeschärft werden, damit in der Praxis nur tatsächlich riskante Systeme in die Hochrisiko-Kategorie eingestuft werden. Im Entwurf der Kommission ist nicht klar genug ausgeschlossen, dass selbst harmlose Systeme, eben nicht als hochriskant eingestuft werden, nur weil sie in bestimmten Risiko-Sektoren operieren. Das würde etwa die KI-basierte Verteilung von Logistikrouten an Fahrer oder Fahrzeuge betreffen. Derartige Systeme haben in der Praxis nur sehr geringe bis keine Risiken, würden aber gemäß dem Kommissionstext wohl in die Hochrisiko-Kategorie fallen. Die Pflichten, die mit einer Hochrisiko-Einordung einhergehen, wäre in diesem Fall ein enormer und wohl unnötiger Mehraufwand, den wir letztlich alle als Verbraucher bezahlen würden, ohne einen Gewinn an Sicherheit, weil die tatsächliche Gefahr von Beginn an gering war.
Zusätzlich muss die Rolle von sogenannter „General Purpose AI“, die in zahlreichen verschiedenen Kontexten eingesetzt werden kann, geklärt werden. Sie gehört meiner Ansicht nach nicht in den Bereich der Verordnung. Denn das Risiko muss immer im Zusammenhang mit dem Zweck der Anwendung bewertet werden. Das fällt hier raus. Aus jeglicher Verantwortung dürfen wir die Entwickler von „General Purpose AI“ jedoch nicht entlassen, sollten ihre Systeme Probleme verursachen. Besonders wichtig ist mir außerdem, einen optimalen Rahmen für Reallabore („Regulatory Sandboxes“) zu schaffen, in denen neue Systeme unbürokratisch getestet werden können.
Das sind einige der Stellen, an denen das Europäische Parlament und der Rat nun nachbessern müssen. Der AI Act darf dabei nicht überladen werden mit Verpflichtungen und Vorgaben, die an anderer Stelle besser aufgehoben wären – wenn sie nicht ohnehin schon existieren. Dann kann es uns gelingen, die EU zu einem weltweiten Innovationsführer im Tech-Bereich zu machen, während unsere Bürger- und Verbraucherrechte auch in der digitalen Welt von übermorgen geschützt sind. Wir können der digitalen Zukunft das Gesicht Europas und der Demokratie geben.
Svenja Hahn ist seit 2019 Mitglied des Europäischen Parlaments für die FDP. Sie sitzt im Ausschuss für Binnenmarkt und Verbraucherschutz, der sich unter anderem mit der Idee eines digitalen Binnenmarkts befasst. Im Sonderausschuss für Künstliche Intelligenz im Digitalen Zeitalter (AIDA) war sie zudem als Koordinatorin der Renew-Fraktion aktiv und arbeitete an gemeinsamen Positionen und Initiativen des Europäischen Parlaments zu KI.