Erweiterte Suche

Digitalisierung & KI

KI-Regulierung

AI Act: Verzögerungen und offene Fragen

Im Europäischen Rat kommt es bei der Arbeit am AI Act mal wieder zu Verzögerungen. Und zivilgesellschaftliche Organisationen haben große Lücken bei den geplanten Verboten von Anwendungen mit „inakzeptablen Auswirkungen“ herausgearbeitet. Ein Update.

Steffen Stierle 2

von Steffen Stierle

veröffentlicht am 14.09.2022

aktualisiert am 15.09.2022

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Die Sommerpause ist vorbei und die EU-Institutionen haben im weiteren Jahresverlauf noch einige Punkte der digitalpolitischen Agenda abzuarbeiten (Tagesspiegel Background berichtete). Eine Priorität der tschechischen Ratspräsidentschaft liegt auf dem AI Act, beim Ministerrat am 6. Dezember soll die gemeinsame Position der Vertreter der Mitgliedstaaten für die ausstehenden Trilog-Verhandlungen mit Parlament und Kommission festgezurrt werden. Der Zeitplan ist ambitioniert und momentan stockt es.

Verzögerungen im Rat

Eigentlich sollten die nationalen Regierungen mit Frist 2. September Stellungnahmen zur aktuellen Kompromissvorlage der Ratspräsidentschaft einbringen (Tagesspiegel Background berichtete). Wie ein EU-Sprecher gegenüber Tagesspiegel Background betonte, hat sich eine „beträchtliche Zahl“ von Mitgliedstaaten daran beteiligt. Welche das sind, war nicht zu erfahren. Deutschland gehört jedenfalls nicht dazu, denn bevor die Bundesregierung Positionen in Brüssel einbringen kann, müssen sich die Koalitionspartner erstmal untereinander einig werden.

Wie Tagesspiegel Background aus dem Umfeld der Regierungsfraktionen im Bundestag erfuhr, verlaufen die Konfliktlinien ähnlich wie zu Zeiten der Großen Koalition. Damals plädierte die SPD für strenge Regeln, um die Risiken von KI-Anwendungen so weit wie möglich einzugrenzen, während die CDU/CSU darauf bedacht war, die Vorschriften locker und flexibel zu halten, um keine Innovationen abzuwürgen. Die Ampel wollte diese Spaltung überwunden, doch nun finden sich die Genossen gegenüber Grünen und insbesondere FDP augenscheinlich in einer ähnlichen Konfliktkonstellation wieder.

Die meisten Änderungswünsche jener Mitgliedstaaten, die Stellungnahmen eingebracht haben, beziehen sich derweil laut dem EU-Sprecher auf die der Regulierung zugrundeliegende KI-Definition, die Einordnung von Anwendungen in der „Hochrisiko“-Klassifizierung, Behördenstrukturen sowie den Ausschluss von Fragen der nationalen Sicherheit von dem Gesetz. Die Tendenz dabei hatte sich schon abgezeichnet, als die Ratspräsidentschaft im Juli den zweiten Kompromisstext vorgelegt hatte: Die Mitgliedstaaten wollen den von der Kommission vorgelegten Verordnungsentwurf abschwächen (engere Definition, weniger Hochrisiko-Einstufungen) und die Verantwortlichkeiten für Durchsetzung und Kontrolle auf nationaler Ebene geringhalten.

Zu erfahren war Ende vergangener Woche auch, dass die zuständige Arbeitsgruppe des Rates noch nicht damit begonnen hat, auf Basis der eingegangenen Stellungnahmen einen dritten Kompromisstext zu erarbeiten. Dies hätte eigentlich im Rahmen zweier Sitzungen in der vergangenen Woche geschehen sollen. Vielleicht wird doch noch auf weitere Stellungnahmen gewartet. Denn jene Mitgliedstaaten, die noch keine Positionen eingebracht haben, behalten sich das Recht vor, „nationale Positionen zu jedem Zeitpunkt des Prozesses“ einzubringen. Und die Bundesregierung arbeitet laut Angaben des Wirtschaftsministeriums von vergangener Woche zumindest an einer solchen Stellungnahme.

Was soll verboten werden?

Derweil nehmen auch die zivilgesellschaftlichen Debatten um den Rechtsakt ihren Lauf. Gestern ging es beim zweiten Roundtable „AIA in-depth“, den das Berliner Weizenbaum-Institut gemeinsam mit der niederländischen Organisation ALLAI veranstaltete, um einen nicht minder problematischen Bereich: Welche Anwendungen sollen nicht reguliert, sondern strikt verboten werden? Vorgesehen ist hierzu im Entwurf der Kommission nicht allzu viel: Lediglich in den Bereichen Verhaltensmanipulation, biometrische Überwachung und „Social Scoring“ sollen nach Artikel 5 bestimmte Anwendungen komplett ausgeschlossen werden.

Die Debatte zeigte dann auch, dass es auf diesen Feldern im AI Act noch zahlreiche Lücken und Hintertüren gibt. So kritisierte etwa Catelijne Muller von ALLAI, die beim Entwurf der KI-Regulierung auch zum Beraterkreis der Kommission gehörte, dass die geplanten Verbote im Bereich biometrischer Überwachung sehr stark auf Angelegenheiten der Strafverfolgung begrenzt werden. Und auch da bei der Überwachung im öffentlichen Raum lediglich auf Echtzeit-Analysen. Zulässig blieben hingegen Produktivitätskontrollen im Homeoffice, beispielsweise anhand von Software, die Augenbewegungen, Stimme oder die Word-Nutzung auswertet. Auch über vorgesehene und diskutierte generelle Ausnahmen vom AI Act würde biometrische Überwachung in vielen Bereichen zulässig bleiben – unter anderen beim Grenzschutz, der nationalen Sicherheit oder bei Hochrisiko-Anwendungen, die bereits vor Inkrafttreten der Verordnung genutzt werden.

Große Lücken wurden auch beim „Social Scoring“-Verbot thematisiert. Eigentlich war die Intention, Sozialkreditsysteme wie in China zu verhindern, argumentierte die Oxford-Professorin Sandra Wachter. Dies könne der AI Act jedoch nicht leisten, denn der Fokus liege ausschließlich auf Systemen, die die „Vertrauenswürdigkeit natürlicher Personen“ bewerten – ein Term, der nicht praktikabel definiert sei. Auch die Begrenzung auf „durch Behörden oder in deren Auftrag“ genutzte KI-System sei ein Problem, da „Social Scoring“ bereits heute durch private Plattformen wie Facebook, Youtube oder Ebay praktiziert werde, auch mit negativen Konsequenzen für viele Menschen. Das sei ähnlich wie im chinesischen System, nur intransparenter.

Eine weitere Eingrenzung besteht laut Wachter in der Festlegung, dass die Bewertungen nur in „sozialen Zusammenhängen“ verboten werden sollen, „die in keinem Zusammenhang zu den Umständen stehen, unter denen die Daten ursprünglich erzeugt oder erfasst wurden.“ Zusammenhänge gebe es jedoch fast immer, auch wenn sie nicht gleich offensichtlich sind, so die Technologieexperten. Es sei schließlich geradezu eine Kernfunktion von KI, Zusammenhänge zu entdecken.

Sowohl bei der biometrischen Überwachung als auch beim „Social Scoring“ drohen also viele Anwendungen durchs Raster zu fallen, die der Intention nach verboten werden sollten. Mehrfach betont wurde in der Debatte, dass dadurch die Gefahr besteht, dass gerade diese problematischen Anwendungen nicht einmal stark reguliert werden, weil auch die „Hochrisiko“-Klassifikation nicht greift.

Lahmende KI-Entwicklung in der deutschen Wirtschaft

Die Sorge von Teilen der Bundesregierung, zu strenge Regeln könnten Innovationen hemmen, dürfte gestern auch eine Analyse des Digitalverbands Bitkom befeuert haben. Dabei wurde deutlich, dass die Einführung von KI in der deutschen Wirtschaft bereits ohne die neuen Vorschriften kein sonderlich dynamischer Prozess ist: Die Zahl der Unternehmen, die angeben, bereits KI zu nutzen, ist demnach zuletzt innerhalb eines Jahres lediglich von acht auf neun Prozent gestiegen. Zugleich ist die Zahl jener, die planen, dies zu tun, von 30 auf 25 Prozent gesungen. Der Anteil der Firmen, für die KI kein Thema ist, ist von 59 auf 64 Prozent angewachsen.

Rechtliche Unsicherheit betrachten immerhin 49 Prozent der befragten Unternehmen als Hemmnis für die Einführung von KI-Anwendungen. Die Hauptsorgen sind jedoch andere. So problematisierten jeweils 62 Prozent einen Mangel an Fachpersonal und Daten. Bitkom-Präsident Achim Berg erklärte die gegenwärtige Zurückhaltung mit den wirtschaftlichen Rahmenbedingungen – steigende Energiekosten, hohe Inflation, unterbrochene Lieferketten.

Doch KI sei „eine Schlüsseltechnologie, die praktisch überall zum Einsatz kommt“. Deshalb müsse man den Unternehmen die Nutzung erleichtern, etwa dadurch, „dass wir in Deutschland Zugang zu für KI notwendige Daten ermöglichen und erleichtern und der Datennutzung nicht ständig neue Steine in den Weg legen.“ Der Bitkom befasst sich heute und morgen im Rahmen der des Big Data & AI Summit weiter mit dem Thema.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen