Einer der großen Streitpunkte beim AI Act ist die KI-Definition, zuletzt wurde im Europäischen Parlament ein neuer Ansatz vorgeschlagen. Dabei wollen sich die zuständigen Berichterstatter Brando Benifei (S&D) und Dragoş Tudorache (Renew) – anders als der Europäische Rat und die Kommission – an der Herangehensweise der zuständigen Normungsbehörde der USA orientieren.
Der Vorschlag der Kommission ist umfassender und schließt die meisten algorithmischen Systeme ein. Die Definition des Rates ist hingegen eng gefasst und bezieht sich nur auf Algorithmen, die ableiten können und über „Elemente der Autonomie“ verfügen. Im Allgemeinen wird dies als maschinelles Lernen interpretiert. Vielleicht wird sich also mit dem nun im Parlament diskutierten Ansatz ein Mittelweg zwischen den EU-Organen durchsetzen?
Es braucht einen neuen Ansatz
Dies wäre vielleicht ein Kompromiss, aber keine Lösung. In einem neuen Briefing für das Center for European Policy Studies argumentieren wir für einen besseren Weg: Eine breite Definition von KI, mit mehr Autonomie für ein spezielles KI-Büro, um die Anwendung des Gesetzes auf algorithmische Besonderheiten zuzuschneiden.
Eine weit gefasste Definition als Basis ist schon deshalb wichtig, weil nicht nur von maschinellem Lernen Bedrohungen für Grundrechte und Sicherheit ausgehen. Auch einfachere Algorithmen können undurchsichtig, ungenau und falsch sein. Rassistische Beurteilungen in Computeralgorithmen gibt es mindestens seit den 1970er Jahren. Es gibt kein Argument dafür, dass einfachere Algorithmen grundsätzlich sicher sind.
Darüber hinaus gibt es weitere Argumente für eine breite Definition: Viele algorithmische Methoden sind schwer zu klassifizieren. Formeln und regelbasierte Algorithmen unterscheiden sich nicht immer deutlich von maschinellem Lernen. Eine breite Definition schafft hier mehr Rechtsklarheit, denn es ist alles enthalten. Außerdem verhindert dieser Ansatz die Vermeidung von Regulierungen – Unternehmen können ihr technisches System nicht ändern, um das Gesetz zu umgehen.
Eine umfassende Definition wäre auch zukunftssicherer. Sie würde auch dann noch greifen, wenn sich die Art der gängigen Algorithmen ändert. Außerdem würde ein solcher Ansatz dazu beitragen, den AI Act auf eine Stufe mit bestehenden internationalen Definitionen zu stellen, wie etwa jener der OECD.
Überregulierung lässt sich anders vermeiden
Die häufigste Kritik an einer weit gefassten KI-Definition lautet, dass es zu Überregulierung käme und Innovationen deshalb blockiert würden. Doch die Definition ist nicht die einzige Einschränkung für die Reichweite der Verordnung. Schließlich gelten die strengen Regeln nur für KI-Systeme, die in als besonders kritisch betrachteten Bereichen zur Anwendung kommen. Dazu zählen etwa kritische Infrastrukturen, Bildung, Gesundheit, Beschäftigung, wichtige Dienstleistungen, Strafverfolgung und mehr. Kurz gesagt, unter die KI-Definition zu fallen, bedeutet nicht automatisch, den strengen Regeln der Verordnung zu unterliegen. Umgekehrt bedeutet eine weit gefasste Definition nicht zwangsläufig, dass es zu Überregulierung kommt.
Das heißt allerdings nicht, dass der Ansatz der Kommission perfekt ist: Wenn eine Risikoklassifizierung schlecht abgegrenzt oder zu weit gefasst ist, können auch triviale Anwendungen einbezogen werden. Außerdem führen selbst klar definierte Risikoklassifizierungen zu zahlreichen Unklarheiten.
Dieses Problem kann angegangen werden, indem die weit gefasste Definition mit einer anschließenden, gezielteren Angabe der KI-Techniken verbunden wird, die in bestimmten Kontexten höhere Risiken verursachen. Auf EU-Ebene sollte eine Behörde geschaffen werden, die mit den zuständigen Stellen der Mitgliedstaaten kooperiert und entsprechende Entscheidungen trifft. Ein Amt für KI, das mit den EU- und nationalen Regulierungsbehörden zusammenarbeitet, um diese Entscheidungen zu treffen. Dabei sollten auch Technologieexperten einbezogen und öffentliches Feedback ermöglicht werden. Dieser Ansatz würde den Wert einer breite KI-Definition mit dem Bedarf an spezifischeren Leitlinien innerhalb jeder Hochrisikoklasse in Einklang bringen.
Zielgenaue Regulierung durch neue EU-Behörde
Die neue Behörde sollte Entwicklern und Anwendern von KI-Systemen auch dabei helfen, die spezifischen Anforderungen an Hochrisiko-Systeme – etwa bezüglich Transparenz, Robustheit oder Fairness – zu erfüllen. Das wäre nicht trivial. Schließlich zeigen frühere Bemühungen zur Regulierung Künstlicher Intelligenz, wie jene der Equal Employment Opportunity Commission in den USA zur KI-basierten Einstellung von Menschen mit Behinderung, wie nuanciert dieser Prozess sein kann. Ein von der neuen EU-Behörde organisiertes Netzwerk aus sektoralen Regulierungsbehörden und unabhängigen Experten wäre hervorragend geeignet, um die Anforderungen entsprechend zu verfeinern.
Diese Arbeit würde auch die internationale Zusammenarbeit bei den KI-Vorschriften verbessern, etwa für den gemeinsamen Fahrplan der EU und der USA für vertrauenswürdige KI sowie für die laufende Arbeit des OECD-Netzwerks von KI-Experten.
Alles in allem könnte die EU mit einem Ansatz wie hier skizziert die KI-Governance umfassend angehen und gleichzeitig die notwendige Flexibilität innerhalb der Sektoren wahren. Dieser zweistufige Ansatz würde sowohl die Grundsätze der EU wahren als auch den risikobasierten Regulierungsrahmen der KI-Verordnung.
Alex C. Engler untersucht bei der Brookings Institution die gesellschaftlichen Auswirkungen von KI. Zuvor war er zehn Jahre lang als Data Scientist in verschiedenen Organisationen tätig. Er ist zudem außerordentlicher Professor und assoziierter Wissenschaftler an der McCourt School of Public Policy.
Andrea Renda ist Head of Global Governance, Regulation, Innovation and the Digital Economy am Center for European Policy Studies in Brüssel. Zudem ist er als außerplanmäßiger Professor an der School of Transnational Governance in Florenz tätig und war Mitglied der EU High Level Arbeitsgruppe zu KI.