AI Act

Was ist der AI Act?

Mit dem AI Act hat die Europäische Union die weltweit erste umfassende Regulierung für Künstliche Intelligenz geschaffen. Sie ist am 1. August 2024 EU-weit in Kraft getreten. Grundsätzlich werden die Regeln des AI Acts spätestens ab dem 2. August 2026 rechtsgültig, einige Vorschriften auch schon früher.

Um die Übergangszeit bis zum endgültigen Inkrafttreten der KI-Verordnung zu überbrücken, hat die EU-Kommission den KI-Pakt ins Leben gerufen und KI-Entwickler aufgefordert, die wichtigsten Verpflichtungen des KI-Gesetzes bereits vor Ablauf der gesetzlichen Fristen freiwillig zu übernehmen.

Für wen gilt der AI Act?

Die KI-Verordnung gilt für jegliche Akteure innerhalb und außerhalb der EU. Sie wendet sich sowohl an Unternehmen, die eine KI entwickeln, anbieten, in die EU einführen oder damit handeln, als auch an Unternehmen, die eine KI beispielsweise nur intern nutzen. Letztere heißen in der Diktion der Verordnung „Betreiber“. Der AI-Act zieht also alle Akteure entlang der KI-Wertschöpfungskette zur Verantwortung, allerdings in unterschiedlichem Maße. Produkthersteller und Anbieter haben zum Beispiel mehr Pflichten als Betreiber.

In der Gesetzgebung des AI Acts gibt es jedoch einige Ausnahmen. Die Verordnung gilt zum Beispiel nicht in den Bereichen Militär, Verteidigung und nationale Sicherheit – denn diese fallen nicht unter EU-Recht. KI-Systeme, die ausschließlich militärischen Zwecken dienen, sind also von der Verordnung ausgeschlossen. Das bedeutet, dass Regierungen auch Anwendungen einsetzen können, die im AI Act als „inakzeptabel“ klassifiziert sind.

Was bedeuten die verschiedenen Risikostufen im AI Act?

Die Regulierung im AI Act folgt einem risikobasierten Ansatz. Damit kategorisiert die EU KI-Systeme in vier Risikostufen: inakzeptables Risiko, hohes Risiko, begrenztes Risiko und niedriges Risiko. Je größer das Risiko der KI für Gesundheit, Sicherheit und Grundrechte der Menschen ist, desto stärker wird sie eingeschränkt.

Inakzeptable beziehungsweise auch unannehmbare Risiko-KI genannt, sind durch die Verordnung komplett verboten. Darunter versteht man beispielsweise Social-Scoring-Systeme, bei denen Sozialleistungen an das Verhalten der Bürger geknüpft sind, oder Programme, die die Emotionen von Beschäftigten erkennen und auswerten.

Hochrisiko-KI ist zwar nicht komplett verboten, unterliegt aber strengen Regeln. Dazu zählen zum Beispiel Systeme, die prüfen, ob Verbraucher kreditwürdig sind oder nicht. Die Verordnung sieht vor, dass eine EU-Datenbank für risikoreiche KI-Systeme eingeführt wird. Weniger reguliert ist KI, die nur ein begrenztes Risiko darstellt. Darunter fallen alle KI-Systeme, die mit Menschen interagieren, etwa Chatbots.

Am wenigsten schränkt die EU Systeme ein, die nur ein minimales oder sogar gar kein Risiko haben. Dazu gehören zum Beispiel KI-fähige Videospiele oder Spamfilter. Laut der EU fällt die überwiegende Mehrheit der KI-Anwendungen aktuell in diese Risikoklasse.

General Purpose AI (GPAI) – also Allzweck-KI, die nicht nur Texte schreibt, sondern beispielsweise auch coden, übersetzen oder analysieren kann – ist ein Sonderfall. Diese Modelle sind zwar ungefährlich, je nach Verwendung können sie aber durchaus in die Hochrisiko-Kategorie fallen. Betreiber von GPAI müssen darauf achten, wie und wofür sie das Modell einsetzen. Das sind zum Beispiel Unternehmen, die zwar die KI einsetzen, sie aber nicht weiterentwickeln oder als ein eigenes Produkt anbieten. Wer also seinen Angestellten ChatGPT als Schreibunterstützung zur Verfügung stellt, gilt als Betreiber. OpenAI ist in diesem Fall der Anbieter.

Was müssen Unternehmen und Behörden über den AI Act wissen?

Unternehmen und Behörden, die eine KI verwenden oder sie anderen zur Verfügung stellen, sollten sich folgende Fragen stellen: Handelt es sich bei dem KI-System um eines, das durch die KI-Verordnung, also den AI Act, reguliert wird? In welche Risikoklasse fällt das System? Und welche Pflichten ergeben sich daraus? Unternehmen die beispielsweise eine Hochrisiko-KI nutzen, müssen etwa ihre Mitarbeitenden richtig schulen und Protokolle der KI-Erzeugnisse mindestens sechs Monate lang aufbewahren. Anbieter sollten zudem ein Qualitätsmanagement etablieren und müssen sichergehen, dass die Systeme registriert und gekennzeichnet sind.

Unternehmen müssen außerdem die Datenschutz-Grundverordnung (DSGVO) beachten. Diese regelt EU-weit, wie Unternehmen mit personenbezogenen Daten umgehen. Sie dient dem Schutz der Privatsphäre der Menschen, die in der EU leben. Damit ist sie auch KI-relevant: Trainieren Unternehmen KI-Systeme beispielsweise mit personenbezogenen Daten, brauchen sie vorher die Einwilligung der betroffenen Personen.

Hinzu kommt der Sonderfall General Purpose AI (GPAI): Nutzt ein Unternehmen beispielsweise einen Chatbot, um mit Kunden zu kommunizieren, ist das wahrscheinlich nur mit einem niedrigen Risiko verbunden. Setzen Vorgesetzte die KI jedoch auch dafür ein, um die Leistung von Beschäftigten zu bewerten, fällt sie in den Hochrisiko-Bereich. Das Unternehmen ist in solch einem Fall von dem ursprünglichen Verwendungszweck der KI abgewichen und gilt dadurch als Betreiber und teilweise auch als Anbieter. Dadurch gelten für das Unternehmen auch einige Anbieterpflichten. Beispielsweise muss es dann ein Risikomanagementsystem geben und genau dokumentiert werden, mit welchen Daten das Unternehmen die KI trainiert.

Welche Strafen drohen bei Verstößen gegen den AI Act?

Wer gegen die neuen Gesetze verstößt, muss hohe Geldstrafen zahlen. Nutzt ein Unternehmen beispielsweise eine verbotene KI, kann eine Strafe von bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Vorjahresumsatzes anfallen. Kommen die Unternehmen anderen Verpflichtungen nicht nach – beispielsweise der Dokumentationspflicht –, müssen sie mindestens 15 Millionen Euro oder drei Prozent des weltweiten Vorjahresumsatzes zahlen.

Wie bewerten verschiedene Interessengruppen den AI Act?

Der Bund der Arbeitgeber (BDA) plädiert für eine einheitliche Durchsetzung der KI-Verordnung. Das bedeutet laut BDA auch, dass die Anforderungen durch den deutschen Gesetzgeber nicht übererfüllt werden sollten. Kurz: Bitte keine zusätzlichen deutschen Regulierungen! Der BDA spricht außerdem davon, dass mit der Verordnung Rechtsunsicherheit entstanden sei, weil beispielsweise Normen, Standards und Verhaltenskodizes noch fehlen und ausgearbeitet werden müssen.

Die Computer & Communications Industry Association, eine internationale Interessenvertretung der Informations- und Kommunikationstechnologiebranche, warnt vor Überregulierung und rechtlicher Unsicherheit. Zudem sei die Klassifizierung von KI-Systemen als hochrisikoreich nicht ausreichend empirisch gestützt.

Die gemeinnützige Organisation AlgorithmWatch sieht das anders. Die Organisation beschäftigt sich mit der Analyse automatisierter Entscheidungssysteme und kritisiert, dass der AI Act nicht weit genug gehe, weil er die Grundrechte nicht effektiv schütze. Der Großteil der Vorschriften deckt laut AlgorithmWatch vor allem die technischen Aspekte ab. Die gesellschaftspolitischen Dimensionen würden allerdings vernachlässigt. So hätten zum Beispiel Strafverfolgungs-, Sicherheits- und Migrationsbehörden große Schlupflöcher.

Wie stehen die großen Tech-Unternehmen wie Meta oder Apple zum AI Act?

Große Unternehmen wie Apple, Meta und das französische KI-Unternehmen Mistral stehen dem AI Act kritisch gegenüber. Die Tech-Unternehmen hatten die Unterzeichnung des KI-Pakts abgelehnt. Der Pakt ist eine freiwillige Verpflichtung von Unternehmen, die Grundsätze der KI-Verordnung bereits vor deren Greifen zu befolgen. Ihnen geht die Regulierung zu weit.

Wer überwacht die Einhaltung des AI Acts auf EU-Ebene?

Das Europäische Amt für Künstliche Intelligenz (EU AI Office) ist Teil der Europäischen Kommission und soll die Umsetzung der KI-Verordnung überwachen. Die Regulierungsbehörde steht außerdem im Austausch mit den nationalen KI-Aufsichtsbehörden und soll den Mitgliedsstaaten eine einheitliche Umsetzung ermöglichen. Das Amt beschäftigt sich mit neuen Systemrisiken von GPAI, identifiziert Trends und mögliche Lücken in der Regulierung identifiziert und bewertet Standards für KI-Systeme. Außerdem sieht es sich als Anlaufstelle für kleine und mittlere Unternehmen, wenn sie bei der Umsetzung der Verordnung Hilfe brauchen. Ende 2024 schien das KI-Büro mit 85 Personen jedoch noch unterbesetzt, wie unter anderem Vertreter der Europäischen Volkspartei kritisierten. Wie die Arbeit und die Prozesse des KI-Büros in Zukunft aussehen, war teilweise offen.

Welches ist die deutsche Aufsichtsbehörde für den AI Act?

Die Regierungen der EU-Mitgliedsstaaten müssen auch auf nationaler Ebene eine Aufsichtsstelle einrichten. Dafür haben sie bis August 2025 Zeit. In Deutschland wird voraussichtlich die Bundesnetzagentur die neue KI-Aufsichtsbehörde sein. Sie soll KI-Systeme, inklusive Hochrisiko-Systeme, überwachen und bewerten. Allerdings übernimmt die Bundesnetzagentur wahrscheinlich nicht alle KI-relevanten Aufgaben. Für Fragen im Automotive-Bereich soll etwa weiterhin das Kraftfahrt-Bundesamt zuständig sein.