Jede Gesellschaft muss dafür sorgen, dass die von Künstlicher Intelligenz (KI) hervorgerufenen Veränderungen mit ihren grundlegenden Werten im Einklang stehen. Diese Werte sind in Europa fest verankert: Im Vertrag über die Europäische Union ist etwa Rede von der „Achtung der Menschenwürde, Freiheit, Demokratie, Gleichheit, Rechtsstaatlichkeit und der Wahrung der Menschenrechte, einschließlich der Rechte der Personen, die Minderheiten angehören.“
Das von der Europäischen Kommission vorgeschlagene Gesetz über KI stellt diese grundlegende Rechte und Werte zu Recht in den Mittelpunkt und besteht darauf, dass KI-Systeme mit Blick auf ihr Risiko beurteilt werden, ob sie diese gefährden. Das ist eine lobenswerte Herangehensweise, stellt uns aber vor eine enorme Forschungslücke. Denn wir beginnen gerade erst ansatzweise zu verstehen, wie Werte wie Menschenwürde oder Demokratie durch KI gefährdet werden und welche Maßnahmen oder Verhaltensnormen dabei helfen könnten, diese Bedrohungen zu adressieren.
KI reproduziert Missstände der Vergangenheit
Ein Großteil der aktuellen Forschungsarbeit zu den ethischen Aspekten und Auswirkungen von KI beschränkt sich auf technische Fragen im Hinblick auf spezifische Systeme. Dazu gehören die Fragen, wie man KI-Algorithmen transparenter gestalten oder dafür sorgen könnte, dass die von ihnen verwendeten Datensätze frei von schädlichem Bias sind. Diese Arbeit ist zwar unentbehrlich, greift aber dennoch zu kurz: Um die Auswirkungen von KI auf unsere grundlegenden Werte wirklich zu verstehen, muss Forschung weit darüber hinaus gehen. Um die Gegenwart zu verstehen, müssen wir sowohl in die Vergangenheit zurückblicken als auch auf unsere Vorstellungen von Zukunft schauen. Wir müssen die gegenwärtigen Technologien im Kontext betrachten – im Kontext von vererbten und fortbestehenden historischen Ungerechtigkeiten, sich verlagernder Machtverhältnisse und der vorherrschenden Erzählungen darüber, was eine wünschenswerte Zukunft ausmacht.
Um nur ein Beispiel zu nennen: Historisch wurde bestimmten Gruppen das Recht auf körperliche Unversehrtheit immer wieder verwehrt: unter anderem durch Eugenik oder unfreiwillige und brutale medizinische Experimente. Solche Praktiken haben europäische Kolonialmächte vielen Ländern aufegzwungen; das gleiche passierte ausgegrenzten Gruppen auch in Europa. Die zugrundeliegenden Vorurteile und Machtgefälle, die diese Praktiken zuließen, bestehen in verschiedenen Formen fort. Sie wirken sich darauf aus, wie neue Technologien entwickelt und eingesetzt werden, zum Beispiel im Gesundheitswesen.
Es gibt viele andere Beispiele dafür, wie KI die systemischen Ungerechtigkeiten der Vergangenheit fortschreibt und vertieft. In solch diversen Bereichen wie Technologien für Predictive Policing oder KI für die Personalrekrutierung haben wir gesehen, dass selbst wohlmeinende Entwickler*innen Produkte kreiert haben, die historische Formen von Ungleichheit und Erniedrigung reproduzieren. Zum Beispiel eine Gesichtserkennungssoftware, die behauptet, ein ‚kriminelles Gesicht‘ identifizieren zu können. Das ruft Erinnerungen an die diskreditierten pseudowissenschaftlichen Disziplinen der Physiognomie und Phrenologie wach und es besteht die Gefahr, solche Formen von wissenschaftlichem Rassismus damit neu zu legitimieren. Nur wenn wir dieses Erbe, einschließlich der Geschichte von Macht, Privileg und Vorurteil, die unsere Gegenwart prägen, verstehen, können wir verstehen, wie KI unsere grundlegenden Werte beinträchtigen wird.
Achtung bei der Zukunftsgestaltung
Gleichzeitig müssen wir uns kritisch mit der Zukunft auseinandersetzen. Die Zukunft hat natürlich noch nicht stattgefunden. Trotzdem gibt es überall Annahmen und Vermutungen, wie die Zukunft aussehen wird – oder aussehen soll. Wie eine bestimmte Technologie konzipiert wird oder die Möglichkeiten, die diese Technologie eröffnet oder ausschließt, hängen mit diesen Zukunftsvisionen zusammen. Man findet sie in den Marketingbroschüren von Technologiefirmen, in den Prämissen politischer Positionspapiere oder in den Blockbuster-Filmen, die in unseren Kinos gezeigt werden.
Es handelt sich hierbei immer um die Zukunftsvisionen von jemandem, die dessen oder deren Hoffnungen und Ängste, Werte und politische Ansichten widerspiegeln. Die eine Person träumt vielleicht von virtuellen persönlichen Assistenten, einer personalisierten Gesundheitsversorgung und auf sie zugeschnittenen, jederzeit abrufbaren Dienstleistungen der öffentlichen Verwaltung, die allesamt von KI getrieben sind, die jedes noch so intime Detail der Person kennt und verarbeitet. Für andere dagegen – insbesondere für Menschen aus historisch verfolgten Gruppen – kann das ein Albtraum totaler Überwachung sein.
Um noch ein Beispiel zu nennen: Bei den coolen fahrerlosen Autos, die durch die Städte der Zukunft in Filmen und TV-Serien wie Westworld und Blade Runner 2049 rasen, wird kaum auf die sehr persönlichen Folgen solcher Innovationen für die Millionen von Taxi-, Lkw-, Bus- und Rikscha-Fahrer*innen eingegangen, die in der heutigen Welt ihren Lebensunterhalt auf der Straße verdienen.
Um unsere aktuelle Beziehung zu KI zu verstehen, müssen wir also eine breitere Perspektive einnehmen, die auch die Vergangenheit und unsere Visionen der Zukunft einschließt. Dafür brauchen wir eine Vielzahl von Expert*innen, um die vielen unterschiedlichen Arten verstehen zu können, wie diese neuen Technologien die Gesellschaft beeinflussen. Wenn wir diese Technologien durch die Brille der Geistes- und Sozialwissenschaften betrachten, können wir die verdeckten Machtstrukturen erkennen, die KI zu dem gemacht haben, was sie ist, und andererseits darauf abzielen, ihren künftigen Kurs zu steuern.
Stephen Cave ist Direktor des Leverhulme Centre for the Future of Intelligence an der Universität Cambridge.
Kanta Dihal ist dort Senior Research Fellow und forscht zu globalen KI-Narrativen und der Dekolonialisierung von Künstlicher Intelligenz.
Die Stiftung Mercator fördert das Projekt „Desirable Digitalisiation: Rethinking AI for Just and Sustainable Futures“ der Universitäten Bonn und Cambridge mit 3,8 Millionen Euro. Es startet im April mit einer Laufzeit von fünf Jahren.