Digitalisierung-KI icon

Digitalisierung & KI

Standpunkte Nachhaltige KI: Der Markt wird es nicht richten

Pascal König (TU Kaiserslautern) und Stefan Wurster (TU München)
Pascal König (TU Kaiserslautern) und Stefan Wurster (TU München) Foto: TUM/Minda de Gunzburg Center for European Studies

Ein Label für eine KI-Anwendung, das deutlich zeigt, wie viel Energie sie benötigt: So können Verbraucher:innen eine informierte Entscheidung treffen und nachhaltige KI wird zum Marktvorteil. In der Praxis funktioniert das leider kaum, schreiben Pascal König, Markus Siewert und Stefan Wurster.

von Stefan Wurster und Pascal König

veröffentlicht am 02.03.2022

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Künftig soll beinahe alles in unserem Alltag „smart“ werden, um uns das Leben zu erleichtern. Grundlage hierfür ist, dass KI-gestützte Technologien und Anwendungen zunehmend alle Lebensbereiche durchdringen. Dadurch rücken jedoch auch deren zum Teil nachteilige soziale und ökologische Auswirkungen stärker in den Fokus der öffentlichen Diskussion.

Die langfristigen gesellschaftlichen Herausforderungen von KI

Mindestens zwei Herausforderungen stehen hierbei im Vordergrund: Erstens sind KI-Anwendungen für ihre Nutzer oftmals intransparent. So ist es bei Online-Plattformen schwierig bis unmöglich nachzuvollziehen, warum Filter-Algorithmen bestimmte Inhalte für den einzelnen Nutzer personalisiert darbieten. Ähnliches gilt für andere Anwendungen wie etwa persönliche KI-Assistenten; auch bei diesen ist für den Nutzer kaum nachvollziehbar, auf Basis welcher Kriterien sie ihre Handlungsempfehlungen aussprechen.

Eine zweite Herausforderung infolge der zunehmenden Verbreitung von KI besteht in deren negativen Auswirkungen auf die Umwelt. Hinter jeder Suchmaschinenabfrage und jedem Streaming von Videos stecken Datentransfers und Rechenoperationen, die oft weit entfernt an anderen Orten der Welt ablaufen. Mehr KI bedeutet damit aber auch einen größeren Ressourcen-Fußabdruck, Energieverbrauch und CO2-Ausstoß. Allein Rechenzentren verursachen weltweit heute so viele CO2-Emissionen wie die Luftfahrtindustrie, Tendenz rapide steigend. Neben der Ausbreitung von KI trägt der wachsende Energiebedarf von immer aufwendigeren Formen des maschinellen Lernens ebenfalls zu mehr Umweltbelastungen bei.

Zur Nachfrage nach nachhaltiger KI durch die Nutzer

KI hat also erhebliche Bedeutung für Fragen der Nachhaltigkeit. Welche langfristigen gesellschaftlichen Folgen die Technologie haben wird, hängt davon ab, wie sie heute und in den nächsten Jahren in verschiedene Lebensbereiche integriert wird und wie Menschen damit umgehen. Nachhaltigkeit ist vor allem dort eine enorme Herausforderung, wo negative Konsequenzen für Menschen nicht direkt wahrnehmbar oder spürbar sind und somit leicht negative Externalitäten entstehen, also Kosten durch die Produktion oder den Konsum, die sich nicht in den Marktpreisen niederschlagen.

Daher ist es eine wichtige Frage, inwieweit die Nutzer von KI-Anwendungen Wert auf Nachhaltigkeit legen. Lehnen sie Anwendungen ab, deren mangelnde Transparenz einen selbstbestimmten Umgang mit KI-Diensten verhindert und die einen übermäßigen Energieverbrauch aufweisen? Um diese Frage zu beantworten, haben wir in einer Studie untersucht, wie sehr Menschen in Deutschland Transparenz und Energieeffizienz bei KI-Anwendungen wertschätzen. Als Anwendungsfall haben wir das hypothetische, aber realistische Beispiel eines persönlichen KI-Assistenten gewählt, der Nutzern mit Empfehlungen, etwa für Restaurants, Unterhaltung oder den Kauf von Produkten zur Seite steht. Mittels eines Umfrageexperiments haben wir getestet, wie wichtig den Befragten bei der Anschaffung eines solchen KI-Assistenten Transparenz und Energieverbrauch gegenüber anderen Merkmalen wie den monatlichen Kosten für das Produkt und der Qualität, gemessen an der Kundenzufriedenheit, ist.

Aufgrund der Ergebnisse dürfte die Hoffnung, dass mündige und gemeinwohlorientierte Konsumenten nachhaltige KI herbeiführen, wohl enttäuscht werden. Zwar zeigen die Befragten eine deutliche Wertschätzung für hohe Transparenz der KI – das heißt Erläuterungen, warum sie eine bestimmte Empfehlung statt einer anderen erhalten. Allerdings wiegen bereits geringe zusätzliche Nutzungskosten jenen Nutzenvorteil vollständig auf. Anders ausgedrückt, die Menschen schätzen zwar Transparenz, sind aber kaum bereit, etwas dafür zu bezahlen.

Mit Blick auf die Energieeffizienz besteht sogar praktisch überhaupt keine Bereitschaft, mehr zu zahlen. Dies gilt selbst für die Teile der Gesellschaft, die ein ausgeprägtes Umweltbewusstsein aufweisen und bei denen insofern der Energieverbrauch am ehesten eine relevante Kategorie für ihre Kaufentscheidung darstellen sollte. Unsere Ergebnisse bestätigen bei Kaufentscheidungen für KI-Produkte somit eindrücklich den bekannten Attitude-Behaviour-Gap: Verbraucher machen sich zwar Sorgen um ethische oder gesellschaftliche Fragen, verhalten sich bei ihrer konkreten Kaufentscheidung aber nicht unbedingt entsprechend.

Zur Rolle von Individuum, Markt und Politik

Angesichts dieser Erkenntnisse können wir nicht darauf hoffen, dass der informierte Verbraucher oder der Markt allein zu transparenteren und ökologisch nachhaltigeren KI-Anwendungen führen werden. Bis dato scheint jedoch der politisch präferierte Weg – nämlich die Sensibilisierung und Aufklärung der Nutzer in Bezug auf den Wert von Transparenzmerkmalen und die Umweltauswirkungen von KI zu stärken – genau auf solche Konsumenten- und marktbasierte Lösungen abzuzielen.

Wichtige Bausteine dieses Ansatzes, die sich unter anderem im Green New Deal der EU finden, sind Ökolabels für digitale Produkte oder Energietracker, die den individuellen CO2-Abdruck von digitalen Technologien berechnen lassen. Das Problem mit Informationskampagnen und Produktkennzeichnungen ist, dass sie den verantwortungsbewussten Umgang mit KI dem Individuum aufbürden. Der Einzelne ist jedoch oftmals überfordert von der Aufgabe, sich über viele Produkte und Dienstleistungen entsprechend zu informieren. Zudem spielen, wie unsere Untersuchung zeigt, langfristige soziale Risiken und Folgen bei ihren Kaufentscheidungen oft keine wesentliche Rolle.

Um die Verbraucher zur Nutzung nachhaltiger KI anzuregen, bedarf es folglich eines umfassenderen, mit wirksameren Instrumenten versehenen Werkzeugkasten an politischen Maßnahmen. Es gilt effektive Anreize für Produkte und Dienstleistungen zu setzen, die wichtige Anforderungen, basierend auf definierten Nachhaltigkeitsstandards erfüllen. Einen umfassenden Katalog von Kriterien hat jüngst Algorithmwatch vorgelegt. Ohne angebotsseitige Maßnahmen und Regulierungen wird nachhaltige KI nach unseren Forschungsergebnissen nicht zu erzielen sein. Entsprechende Instrumente können dabei durchaus markbasiert sein, etwa indem sie Betreiber von KI-Anwendungen in Emissionshandelssysteme einbeziehen. Daneben ist zur Förderung von „grüner“ und transparenter KI Selbstregulierung durch Unternehmen und (Ko-)Regulierung durch staatliche Akteure denkbar, wenn dies positive Anreize für eine verantwortungsvolle Entwicklung von KI setzt und zum Beispiel produktbezogene Ökodesign-Ansätze zur Norm macht.

Bei einem weiterhin exponentiell wachsenden globalen Energie- und Ressourcenverbrauch der KI-Nutzung dürfen als ultima ratio aber auch verbindliche ordnungsrechtliche Vorgaben, wie Gebote und Verbote, nicht vom Tisch genommen werden. Unserer Umfrage bei potenziellen KI-Nutzern zeigt, dass Unterstützung für strengere staatliche Regulierungen von KI, sowohl in Bezug auf Transparenz wie Energieeffizienz, durchaus vorhanden ist. Bei einem Verzicht auf solche Instrumente besteht die Gefahr, dass die verpasste Gelegenheit, früh Leitplanken zu setzen, zu unerwünschten Spätfolgen führt, welche sich nur schwer und mit hohen Kosten revidieren lassen. Die Geschichte kennt andere Beispiele, bei denen das geschehen ist. Es wäre aber gerade bei einer Technologie, die sogar Intelligenz im Namen trägt, eine besondere Ironie, aus früheren Lektionen nicht zu lernen.

Pascal D. König ist Politikwissenschaftler an der TU Kaiserslautern und zurzeit Gastforscher und John F. Kennedy Gedächtnisstipendiat am Minda de Gunzburg Center for European Studies der Harvard University. Stefan Wurster ist Professor für Policy Analysis an der TU München. Markus B. Siewert ist Politikwissenschaftler an der Hochschule für Politik an der TU München.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen