Systeme der Künstlichen Intelligenz (KI) arbeiten an der Schnittstelle von Mensch und Maschine. Sie sind heute in den vielen sozioökonomischen Kontexten bereits weit verbreitet. Dabei schaffen sie neue Chancen und enorme Risiken, weil sie auf radikal neue Weise in das menschliche Denken und Entscheiden eingreifen.
Die Entwicklung von KI-Systemen setzt die Erzeugung von Modellen voraus. Diese Modelle sind in der menschlichen sozialen Realität verankert. Denn sie greifen auf Daten, Bilder, Sprachmuster und Regeln zurück, die in menschlichen Kontexten entstehen, und verändern deren Bedeutungen. Aus diesem Grund greifen sie tief in unser Leben ein. KI-Systeme sind kein neutraler Werkzeugkasten, keine bloße Erweiterung menschlicher Fähigkeiten in neuen Bereichen. Vielmehr verändern sie uns insofern, als sie unsere eigenen impliziten Werturteile und menschlichen Selbstverständnisse explizit machen und damit beeinflussen.
KI ist in Kulturen verwurzelt. Zu den kulturellen Unterschieden gehören auch unterschiedliche Wertvorstellungen. Angesichts dieser Tatsache ist es erforderlich, die Geistes- und Sozialwissenschaften miteinzubeziehen, um die kulturellen und politischen Kontexte zu untersuchen, in die KI-Systeme eingebettet sind.
Die Ethik der KI sollte sich auf eine explizite Diskussion des Selbstverständnisses des Menschen im Hinblick auf unsere technologischen Fähigkeiten stützen. So wird es möglich, normative schädliche Muster zu erkennen und sie durch positive, wertbewusste zu ersetzen. Daher untersuchen wir die Beziehung zwischen den aktuellen und historisch divergierenden Selbstverständnissen der kulturell kodierten Schnittstelle von Mensch und KI in verschiedenen Kulturen (von den USA bis China, von Europa bis Afrika). Die Kartierung dieser Unterschiede ermöglicht es, allgemeine, idealerweise universelle normative Muster für einen wünschenswerten Einsatz von KI im humanen Kontext zu identifizieren. Den Menschen als unverzichtbares Element in den Mittelpunkt der KI-Forschung zu stellen, führt zu einer neuen Art von KI-Ethik, die sich auf die Überwindung intersektionaler Diskriminierung und positiv auf Gerechtigkeit konzentrieren kann, die durch die soziale Komplexität des KI-Designs und der realen Umsetzung an der Mensch-Maschine-Schnittstelle entsteht.
Die Tatsache, dass die Digitalisierung ethische Risiken birgt, ist zwar offensichtlich, wird aber noch immer vernachlässigt. Die Bewertung der Risiken und Identifizierung positiver Lösungen setzt voraus, dass wir in der Lage sind, eine Grenze zwischen unerwünschten, negativen Ergebnissen einer sozial disruptiven KI-Implementierung und einer normativ wünschenswerten Digitalisierung zu ziehen. Was wünschenswert ist, hängt von menschlicher Normativität ab, die Ideen von Gerechtigkeit, Freiheit und Gleichheit sowie andere grundlegende Werte umfasst, die mit der Menschenwürde selbst verbunden sind.
KI hat nicht nur Auswirkungen auf unser Selbstverständnis als Menschen und damit die Architektur unserer digitalen Gesellschaften. Die Entwicklung von KI hat große Auswirkungen auf die Umwelt – durch den Stromverbrauch und die resultierenden Emissionen, den Abbau seltener Erden, den Wasserverbrauch zur Kühlung von Servern und die Landnutzung. Mit anderen Worten: Für KI ist eine umfangreiche physische Infrastruktur erforderlich, und innerhalb dieser werden die Menschen und der Planet ausgebeutet.
Die Untersuchung der Nachhaltigkeit von KI erfordert einen genauen Blick auf die technischen Details der Technik, zum Beispiel wie lange Algorithmen trainiert werden. Da die Umweltkosten oft eine Belastung für die schwächsten und am stärksten marginalisierten Bevölkerungsgruppen sind (zum Beispiel diejenigen, die in den Minen arbeiten, um Mineralien zu gewinnen), ist Nachhaltigkeit nicht nur eine technische, sondern auch eine ethische Frage.
Das Konzept der Nachhaltigkeit wird seit Jahrzehnten verwendet, wobei es je nach Sektor unterschiedliche Bedeutungen annimmt. Neben den ökologischen Folgen der Nutzung von KI ist es wichtig zu verstehen, was dies für das Konzept der Nachhaltigkeit bedeutet. Was kann eine wirklich nachhaltige KI sein, die uns nutzt, um eine wünschenswerte humane Zukunft zu gestalten?
Da Nachhaltigkeit selbst ein übergreifender Wert ist, der von verschiedenen Gemeinschaften unterschiedlich verstanden wird, bleibt nachhaltige KI untrennbar mit dem humanen Kontext und damit auch mit der Transformation unserer Selbstbilder verwoben, die die Geistes- und Sozialwissenschaften in der Frage nach der wünschenswerten Digitalisierung untersuchen.
Die Idee einer sowohl humanen als auch nachhaltigen KI ist nicht nur wichtig, um ethische Konzepte wie Nachhaltigkeit zu überdenken, sondern sie zwingt uns auch, die Rolle und Verantwortung des Menschen ernst zu nehmen. Wie wirkt sich KI auf uns aus und wie kann Nachhaltigkeit ein zentrales Merkmal dieser Wirkung sein? Diese Frage ist kurz- und langfristig relevant. In Anbetracht der generationenlangen Auswirkungen der mit KI verbundenen Umweltkosten werden auch Fragen der Umweltgerechtigkeit erörtert.
Im Lichte dieser Überlegungen wird unser Projektteam für wünschenswerte Digitalisierung in Bonn mit unseren Partnern in Cambridge an einer neuen Welle der Ethik der KI arbeiten. Diese wird grundlegende philosophische Fragen nach dem Menschen mit einer neuartigen Darstellung von KI als einem Modus sozialer Komplexität, die an der Mensch-Maschine-Schnittstelle entsteht, verbinden. Dies ermöglicht es uns, die Debatten über die Regulierung und Ethik der KI neu zu strukturieren, um zur Nachhaltigkeit sowohl auf der kulturellen als auch auf der ökologisch-ökonomischen Ebene der Gesamtauswirkungen von KI auf die menschliche Lebenswelt beizutragen.
Aimee van Wynsberghe ist Alexander-von-Humboldt-Professorin für Angewandte Ethik der Künstlichen Intelligenz und Direktorin des Instituts für Wissenschaft und Ethik an der Universität Bonn sowie Leiterin des Sustainable AI Labs.
Markus Gabriel ist Direktor des Center for Science and Thought an der Universität Bonn, an der er auch den Lehrstuhl für Erkenntnistheorie, Philosophie der Neuzeit und Gegenwart innehat. Aktuell ist er Fellow im Programm „Foundations of Value and Values“ am New Institute in Hamburg.
Die Stiftung Mercator fördert das Projekt „Desirable Digitalisiation: Rethinking AI for Just and Sustainable Futures“ der Universitäten Bonn und Cambridge mit 3,8 Millionen Euro. Es startet im April mit einer Laufzeit von fünf Jahren.