Erweiterte Suche

Digitalisierung & KI

Standpunkt

Kontrolle und Verantwortung: Wann ist KI vertrauenswürdig?

Armin Grunwald, Leiter des Büros für Technikfolgenabschätzung im Bundestag, KIT
Armin Grunwald, Leiter des Büros für Technikfolgenabschätzung im Bundestag, KIT Foto: Anne Behrendt

Fahrzeuge sicher durch den Verkehr lotsen, Krebszellen erkennen, komplexe Klimadaten auswerten – die Potenziale von KI lassen sich kaum bestreiten. Doch ihre Risiken bereiten vielen Menschen Sorgen. Wie KI vertrauenswürdig eingesetzt werden kann, wird in der EU aktuell diskutiert. Der Regulierungsvorschlag der Kommission greift allerdings zu kurz. Denn vertrauenswürdige KI braucht mehr als Verordnungen und Verbote.

von Armin Grunwald

veröffentlicht am 11.03.2022

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Künstliche Intelligenz kann vielfältig eingesetzt werden. Ebenso breit gefächert wie ihre Einsatzmöglichkeiten sind die Risiken, die von KI-Systemen ausgehen können. So stellt eine Fehlfunktion eines KI-Systems im Gesundheitswesen eine Gefahr für Menschenleben dar, während ein System für Musikempfehlungen im schlimmsten Fall unseren guten Geschmack beleidigt. Der Regulierungsvorschlag der EU-Kommission trägt diesem unterschiedlich hohen Gefahrenpotenzial, der sogenannten Kritikalität von KI-Systemen, Rechnung. Je nach Höhe der Risiken kann ein KI-System verboten werden, muss vor seiner Markteinführung bestimmte Anforderungen erfüllen oder unterliegt keinerlei Vorgaben.

Strenger regulieren bei größeren Risiken

Der Regulierungsentwurf sieht vor, die Risiken von KI-Systemen anhand festgelegter Kriterien zu beurteilen. Dieser Kriterienkatalog weist aber einige Schwachstellen auf. Die Plattform Lernende Systeme hat diese in einem Whitepaper herausgearbeitet und Kriterien ergänzt. Die höchste Priorität muss immer der Schutz von Menschenleben und weiteren Rechtsgütern wie der Umwelt haben. Zudem ist der Umfang der Handlungsfreiheit des Menschen entscheidend. So müssen KI-Anwendungen, die schwer umgangen werden können – etwa aufgrund von mangelnder Pluralität des Dienstangebotes oder weil sie aus gesundheitlichen Gründen notwendig sind –, höhere Hürden nehmen als KI-Anwendungen, bei denen sich das Individuum schlicht dagegen entscheiden kann. Kurz: Die Diabetes-App muss besser geschützt sein als Spiele-Apps.

Bei der Beurteilung der Risiken eines KI-Systems muss zusätzlich der Anwendungskontext in den Blick genommen werden: Dasselbe KI-System kann in einem Zusammenhang ein hohes Risiko aufweisen, während es in einem anderen unbedenklich ist. Es macht einen Unterschied, ob Gesichtserkennung beim Erstellen eines Fotobuchs zum Einsatz kommt oder ob ein totalitärer Staat die Technologie nutzt. Die Kritikalität eines KI-Systems hängt davon ab, wie, wo, wann und von wem es eingesetzt wird. Nur innerhalb dieses Kontextes lassen sich mögliche Risiken in der Theorie nachvollziehbar beurteilen. Eine solche Einzelfallbetrachtung lässt der aktuelle KI-Gesetzentwurf der EU-Kommission nicht zu.

Dynamik der Nutzung nicht unterschätzen

Und selbst wenn zur Einschätzung der Risiken auch der Anwendungskontext herangezogen wird – die frühzeitige Beurteilung kann nicht die mögliche Dynamik der späteren realen Nutzung vorwegnehmen. Diese ist oft unvorhersehbar, schon allein deshalb, weil die menschliche Kreativität häufig die angenommenen Anwendungsszenarien übersteigt – im positiven Sinne, wenn neue, erwünschte Anwendungen und Innovationen entdeckt werden, aber auch im negativen Sinne, wenn KI-Systeme für unethische Aktionen missbraucht oder zweckentfremdet werden. Daher ist eine niedrige Kritikalität nur ein Hinweis auf ein zunächst anzunehmendes geringes Schadenspotenzial, aber keine Garantie, dass dies auch so bleibt.

Überraschungen und Einfallsreichtum erleben wir auch bei der praktischen Nutzung konventioneller IT. Hier verfügen wir aber zumindest in Teilen über belastbares Wissen über die Gefahren und Risiken. Zu KI-Anwendungen ist dieses Wissen meist (noch) nicht vorhanden. Daten aus der Zukunft gibt es nicht und so treten Annahmen an die Stelle einer auf empirischen Daten beruhenden Risikobeurteilung. Hinzu kommt, dass KI im Gegensatz zu konventioneller IT ständig dazulernt. Jegliche Risikobeurteilung für KI-Systeme muss daher auch das Risiko des nicht-intendierten Lernens (sprich: das Lernen unerwünschter Effekte) beachten. Dieser Gefahr kann man zum Beispiel technisch entgegentreten, indem Leitplanken in das System einprogrammiert werden, die das Lernen des Systems von vornherein begrenzen.

Die Chancen von Künstlicher Intelligenz für Gesellschaft und Wirtschaft sind groß. Die Menschen werden sie aber nur nutzen, wenn sie der Technologie vertrauen. Die Regulierung von KI-Systemen, wie sie die EU vorsieht, ist ein wichtiger Baustein für einen verantwortungsvollen und vertrauenswürdigen Einsatz von KI. Die exakte Beurteilung der Risiken von KI-Anwendungen ist im Vorfeld aber schwierig. Neben dem regulatorischen Rahmen bedarf es deshalb einer Art KI-TÜV, der die Systeme regelmäßig überprüft, niedrigschwelliger Beschwerdemöglichkeiten für die Verbraucher:innen sowie klarer Haftungsregeln.

Die Menschen müssen wissen, dass es Personen und Institutionen gibt, die für das jeweilige System die Verantwortung übernehmen. Vertrauen entsteht, wenn die Systeme über ihre Zulassung hinaus verlässlich und nachweisbar ihren Dienst tun und Menschen dafür geradestehen.

Armin Grundwald vom Karlsruher Institut für Technologie (KIT) und der Plattform Lernende Systeme leitet das Büro für Technikfolgenabschätzung im Deutschen Bundestag.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen