Erweiterte Suche

Digitalisierung & KI

Standpunkt

Geschichte und Zukünfte Künstlicher Intelligenz

Stephen Cave und Kanta Dihal, Universität Cambridge
Stephen Cave und Kanta Dihal, Universität Cambridge Foto: Leverhulme Centre for the Future of Intelligence, Universität Cambridge

Die EU-Gesetzgebung sieht vor, KI nach ihrem Risikopotenzial für unsere europäischen Werte und Grundrechte zu beurteilen. Doch genau an dieser Stelle klafft eine große Forschungslücke, sind Stephen Cave und Kanta Dihal von der Universität Cambridge überzeugt. Nur durch eine kritische Analyse von Missständen der Vergangenheit und Reflexion unterschiedlicher Zukunftsvisionen, können wir KI ethisch gestalten.

von Stephen Cave und Kanta Dihal

veröffentlicht am 09.02.2022

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Jede Gesellschaft muss dafür sorgen, dass die von Künstlicher Intelligenz (KI) hervorgerufenen Veränderungen mit ihren grundlegenden Werten im Einklang stehen. Diese Werte sind in Europa fest verankert: Im Vertrag über die Europäische Union ist etwa Rede von der „Achtung der Menschenwürde, Freiheit, Demokratie, Gleichheit, Rechtsstaatlichkeit und der Wahrung der Menschenrechte, einschließlich der Rechte der Personen, die Minderheiten angehören.“

Das von der Europäischen Kommission vorgeschlagene Gesetz über KI stellt diese grundlegende Rechte und Werte zu Recht in den Mittelpunkt und besteht darauf, dass KI-Systeme mit Blick auf ihr Risiko beurteilt werden, ob sie diese gefährden. Das ist eine lobenswerte Herangehensweise, stellt uns aber vor eine enorme Forschungslücke. Denn wir beginnen gerade erst ansatzweise zu verstehen, wie Werte wie Menschenwürde oder Demokratie durch KI gefährdet werden und welche Maßnahmen oder Verhaltensnormen dabei helfen könnten, diese Bedrohungen zu adressieren. 

KI reproduziert Missstände der Vergangenheit

Ein Großteil der aktuellen Forschungsarbeit zu den ethischen Aspekten und Auswirkungen von KI beschränkt sich auf technische Fragen im Hinblick auf spezifische Systeme. Dazu gehören die Fragen, wie man KI-Algorithmen transparenter gestalten oder dafür sorgen könnte, dass die von ihnen verwendeten Datensätze frei von schädlichem Bias sind. Diese Arbeit ist zwar unentbehrlich, greift aber dennoch zu kurz: Um die Auswirkungen von KI auf unsere grundlegenden Werte wirklich zu verstehen, muss Forschung weit darüber hinaus gehen. Um die Gegenwart zu verstehen, müssen wir sowohl in die Vergangenheit zurückblicken als auch auf unsere Vorstellungen von Zukunft schauen. Wir müssen die gegenwärtigen Technologien im Kontext betrachten – im Kontext von vererbten und fortbestehenden historischen Ungerechtigkeiten, sich verlagernder Machtverhältnisse und der vorherrschenden Erzählungen darüber, was eine wünschenswerte Zukunft ausmacht.

Um nur ein Beispiel zu nennen: Historisch wurde bestimmten Gruppen das Recht auf körperliche Unversehrtheit immer wieder verwehrt: unter anderem durch Eugenik oder unfreiwillige und brutale medizinische Experimente. Solche Praktiken haben europäische Kolonialmächte vielen Ländern aufegzwungen; das gleiche passierte ausgegrenzten Gruppen auch in Europa. Die zugrundeliegenden Vorurteile und Machtgefälle, die diese Praktiken zuließen, bestehen in verschiedenen Formen fort. Sie wirken sich darauf aus, wie neue Technologien entwickelt und eingesetzt werden, zum Beispiel im Gesundheitswesen.

Es gibt viele andere Beispiele dafür, wie KI die systemischen Ungerechtigkeiten der Vergangenheit fortschreibt und vertieft. In solch diversen Bereichen wie Technologien für Predictive Policing oder KI für die Personalrekrutierung haben wir gesehen, dass selbst wohlmeinende Entwickler*innen Produkte kreiert haben, die historische Formen von Ungleichheit und Erniedrigung reproduzieren. Zum Beispiel eine Gesichtserkennungssoftware, die behauptet, ein ‚kriminelles Gesicht‘ identifizieren zu können. Das ruft Erinnerungen an die diskreditierten pseudowissenschaftlichen Disziplinen der Physiognomie und Phrenologie wach und es besteht die Gefahr, solche Formen von wissenschaftlichem Rassismus damit neu zu legitimieren. Nur wenn wir dieses Erbe, einschließlich der Geschichte von Macht, Privileg und Vorurteil, die unsere Gegenwart prägen, verstehen, können wir verstehen, wie KI unsere grundlegenden Werte beinträchtigen wird.

Achtung bei der Zukunftsgestaltung

Gleichzeitig müssen wir uns kritisch mit der Zukunft auseinandersetzen. Die Zukunft hat natürlich noch nicht stattgefunden. Trotzdem gibt es überall Annahmen und Vermutungen, wie die Zukunft aussehen wird – oder aussehen soll. Wie eine bestimmte Technologie konzipiert wird oder die Möglichkeiten, die diese Technologie eröffnet oder ausschließt, hängen mit diesen Zukunftsvisionen zusammen. Man findet sie in den Marketingbroschüren von Technologiefirmen, in den Prämissen politischer Positionspapiere oder in den Blockbuster-Filmen, die in unseren Kinos gezeigt werden. 

Es handelt sich hierbei immer um die Zukunftsvisionen von jemandem, die dessen oder deren Hoffnungen und Ängste, Werte und politische Ansichten widerspiegeln. Die eine Person träumt vielleicht von virtuellen persönlichen Assistenten, einer personalisierten Gesundheitsversorgung und auf sie zugeschnittenen, jederzeit abrufbaren Dienstleistungen der öffentlichen Verwaltung, die allesamt von KI getrieben sind, die jedes noch so intime Detail der Person kennt und verarbeitet. Für andere dagegen – insbesondere für Menschen aus historisch verfolgten Gruppen – kann das ein Albtraum totaler Überwachung sein.

Um noch ein Beispiel zu nennen: Bei den coolen fahrerlosen Autos, die durch die Städte der Zukunft in Filmen und TV-Serien wie Westworld und Blade Runner 2049 rasen, wird kaum auf die sehr persönlichen Folgen solcher Innovationen für die Millionen von Taxi-, Lkw-, Bus- und Rikscha-Fahrer*innen eingegangen, die in der heutigen Welt ihren Lebensunterhalt auf der Straße verdienen.

Um unsere aktuelle Beziehung zu KI zu verstehen, müssen wir also eine breitere Perspektive einnehmen, die auch die Vergangenheit und unsere Visionen der Zukunft einschließt. Dafür brauchen wir eine Vielzahl von Expert*innen, um die vielen unterschiedlichen Arten verstehen zu können, wie diese neuen Technologien die Gesellschaft beeinflussen. Wenn wir diese Technologien durch die Brille der Geistes- und Sozialwissenschaften betrachten, können wir die verdeckten Machtstrukturen erkennen, die KI zu dem gemacht haben, was sie ist, und andererseits darauf abzielen, ihren künftigen Kurs zu steuern.

Stephen Cave ist Direktor des Leverhulme Centre for the Future of Intelligence an der Universität Cambridge.

Kanta Dihal ist dort Senior Research Fellow und forscht zu globalen KI-Narrativen und der Dekolonialisierung von Künstlicher Intelligenz.

Die Stiftung Mercator fördert das Projekt „Desirable Digitalisiation: Rethinking AI for Just and Sustainable Futures“ der Universitäten Bonn und Cambridge mit 3,8 Millionen Euro. Es startet im April mit einer Laufzeit von fünf Jahren.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen