Erweiterte Suche

Digitalisierung & KI

Standpunkt

Zwischen Förderung & Vorurteilen: Werden KI-Systeme durch den AI Act verlässlicher?

Christian Meyer, Principal Consultant im Bereich Public Sector bei der Unternehmensgruppe MSG
Christian Meyer, Principal Consultant im Bereich Public Sector bei der Unternehmensgruppe MSG Foto: Msg

Der AI Act der Europäischen Kommission soll Risiken beim Einsatz von Künstlicher Intelligenz reduzieren und damit Vorbehalte mindern. Ob dies gelingt, hängt vor allem von der Frage ab, inwieweit abstrakte Konzepte auch in die Praxis überführt werden, meint der Entwickler eines KI-Prüfverfahrens, Christian Meyer.

von Christian Meyer

veröffentlicht am 20.04.2022

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Der Artificial Intelligence Act (AI Act) der Europäischen Kommission soll KI-Anwendungen gegen Risiken absichern. Das Gesetz wird voraussichtlich bis 2023 in Kraft treten und setzt auf das Konzept von „verlässlicher KI“, um deren Akzeptanz in der Gesellschaft zu fördern. Die darin beschriebenen Anforderungen sollen KI transparenter und nachvollziehbarer machen sowie Diskriminierung verhindern. So ist im aktuellen Entwurf unter anderem ein Stufensystem vorgesehen, das KI-Anwendungen in verschiedene Risikoklassen mit entsprechend unterschiedlichen Auflagen einteilt.

Verlässlichkeit von KI wird in der Planung noch missachtet

Die Erfüllung der Anforderungen des AI Acts wird künftig für Organisationen in der Europäischen Union absolut notwendig sein. Entspricht eine eingesetzte KI-Anwendung nicht den Regularien, drohen Klagen und Bußgelder. Sobald der Rechtsakt in Kraft ist, wird es noch ein Jahr Karenzzeit geben, um auf die neuen Anforderungen zu reagieren. Danach kann ein Verstoß teuer werden.

Die große Hürde, vor der Institutionen und Unternehmen deshalb stehen, ist, das Bewusstsein für die neuen Anforderungen besonders auf planerischer Ebene zu entwickeln. Auf höherer Ebene wird zwar bereits über den AI Act und über verlässliche KI diskutiert. Doch dabei handelt es sich bislang vor allem um eine abstrakte Diskussion, die von konkreten Projekten und deren Umsetzung losgelöst ist. So werden KI-Projekte verwirklicht, die im Nachhinein umgebaut, nachgerüstet oder gar komplett neu aufgerollt werden müssen – und demzufolge einen enormen Mehraufwand bedeuten. Ein Beispiel bilden die hohen Anforderungen an Transparenz. Die Erfüllung dieser hat eine tiefe technische Dimension, was allerdings in aktuellen KI-Projekten häufig noch nicht mitgedacht wird. Die Aufgabe besteht deshalb darin, aus der abstrakten Diskussion rund um risikoreduzierte KI endlich konkrete Handlungsschritte für die Praxis abzuleiten.

Prüfverfahren zur Ermittlung der Gefahrenfelder

Um von der Theorie in die konkrete Praxis überzugehen, wurden bereits verschiedene Prüfverfahren entwickelt. Diese untersuchen, ob ein KI-System die Anforderungen der EU-Regulierung erfüllt. Doch KI-Anwendungen agieren häufig wie eine Blackbox: Empfehlungen oder Entscheidungen aus ihnen heraus sind in den seltensten Fällen einsehbar und damit nachvollziehbar. Hier kommt der Ansatz der „Verlässlichkeit“ ins Spiel. Neben der Erklärbarkeit sollte eine verlässliche KI noch weitere Kriterien erfüllen: Fairness, um sicherzustellen, dass keine Diskriminierung erfolgt; Autonomie und Kontrolle, um sicherzustellen, dass die finale Entscheidung immer noch beim Menschen liegt und durch ihn revidiert werden kann; Robustheit, um die technische Stabilität zu gewährleisten; sowie Sicherheit und Datenschutz, um das System und insbesondere personenbezogene Daten zu schützen.

Allerdings müssen für eine konkrete KI-Anwendung nicht alle diese Dimensionen gleichermaßen relevant sein. Beispielsweise verarbeiten manche KI-Systeme keine personenbezogenen Daten, wodurch die Dimension Datenschutz hier weniger beachtet werden muss als etwa im Falle einer Personalsoftware. Um eine KI-Anwendung verlässlich aufzubauen, sollte daher zunächst der Fokus auf der Frage liegen, welche Dimensionen für das individuelle System inwieweit von Bedeutung sind. Der AI Act berücksichtigt diese Frage mit einem risikobasierten Ansatz. Sprich: Es gilt zu prüfen, welche Gefahren von einem KI-System in seinem konkreten Anwendungsbereich ausgehen könnten.

Im zweiten Schritt geht es darum, die theoretischen Aspekte der relevanten Dimensionen in konkrete, auf das jeweilige KI-Projekt bezogene Prüfprozesse zu überführen. Dafür bietet es sich an, in Expertengesprächen mit dem Management sowie den Entwickler:innen der Anwendung einen gezielten Fragenkatalog durchzuarbeiten. Zum Beispiel wird dabei erörtert, welche Fairness-Definitionen verwendet werden und warum diese ausgewählt wurden. Oder, ob Vorgaben zur Handlungsfreiheit der Nutzer:innen gemacht und eingehalten werden, und ob festgelegt ist, unter welchen Bedingungen die KI-Anwendung neu evaluiert wird.

Durch dieses Befragungs- und Prüfverfahren entsteht ein eindeutiges Bild des individuellen KI-Projektes. Daraus lassen sich eine Bewertung und Handlungsempfehlungen ableiten, um sicherzustellen, dass eine KI-Anwendung verlässlich ist – und damit auch den Vorgaben des AI Acts entspricht.

Operationalisieren statt philosophieren

Der AI Act bildet somit ein wichtiges reglementarisches Werkzeug, um grundsätzlich für eine höhere Verlässlichkeit von KI-Systemen zu sorgen. Er ist ein richtiger und wichtiger Schritt – und zudem das erste regulatorische KI-Vorhaben mit Rechtskraft weltweit. Erweisen sich die Regeln als wirksam, dürfte dies einen positiven Effekt auf das allgemeine Vertrauen in KI-Anwendungen zur Folge haben. Denn die Frage, wie die Verlässlichkeit von KI sichergestellt werden kann, steht schon länger im Raum. Was bisher fehlt, sind allgemeingültige Bestimmungen, die es ermöglichen, wirklich aktiv zu werden. Nun sind erstmals Vorgaben und Prüfkataloge zur Orientierung vorhanden. Aus abstrakten Konzepten sind klare Handlungsempfehlungen und Prüfsysteme entstanden, um die bald bestehenden Gesetze zu erfüllen und damit das Vertrauen zu stärken. Es muss nicht mehr weiter über KI und Ethik pilosophiert werden. Wir sind nun endlich in der Operationalisierungsphase angelangt.

Christian Meyer ist Principal Consultant im Bereich Public Sector bei MSG und leitet die Entwicklung eines KI-Prüfverfahrens. Er beschäftigt sich seit über 20 Jahren mit KI und hat mehrere Startups mit KI-Lösungen geleitet.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen