Digitalisierung-KI icon

Digitalisierung & KI

Standpunkte Wie KI endlich nachhaltig werden kann

Professor für Recht und Ethik der digitalen Gesellschaft an der Europa-Universität Viadrina
Professor für Recht und Ethik der digitalen Gesellschaft an der Europa-Universität Viadrina Foto: Heide Fest

Der Bedarf an KI-Anwendungen steigt rasant – und damit auch der Ressourcenverbrauch für Entwicklung und Nutzung der Technologie. Höchste Zeit, für mehr Nachhaltigkeit zu sorgen, schreibt daher Philipp Hacker von der Europa-Universität Viadrina. Der Rechtswissenschaftler präsentiert vier konkrete Vorschläge.

von Philipp Hacker

veröffentlicht am 27.09.2023

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Ein stark wachsender Teil der Menschheit verwendet ChatGPT und andere generative KI-Modelle für Alltagskommunikation, professionelle Aufgaben oder schlicht zum Zeitvertreib. Wie auch die bereits seit einigen Jahren in vielfältigen Anwendungen – von Spamfiltern über Handschrifterkennung bis hin zu Übersetzungsprogrammen – integrierten traditionellen KI-Modelle haben die neuen generativen Systeme ein herausragendes Potenzial. Dieses prägt bereit jetzt unsere Wirtschaft und Gesellschaft und wird sie in den nächsten Jahren noch spürbar verändern.

Was bislang jedoch in der Debatte über KI-bezogene Chancen und Dystopien kaum eine Rolle spielt, sind die Auswirkungen auf natürliche Ressourcen und Nachhaltigkeit – mithin die Verbindungen zwischen den beiden großen gesellschaftlichen Herausforderungen der Digitalisierung und des Klimawandels. Diese Auswirkungen sind erheblich, wie eine zunehmende Anzahl von Studien aus der Informatik zeigt. Schätzungen zufolge verbraucht ein mittellanger Dialog mit ChatGPT, der aus 20-50 Fragen besteht, etwa einen halben Liter Wasser. Bei deutlich über 100 Millionen aktiven Nutzern allein von ChatGPT lässt sich schnell überschlagen, dass dies global gesehen ganz erhebliche Dimensionen annimmt. Hinzu kommt der erhebliche Bedarf an Strom für das Training und die Anwendung der Modelle; und dort ist die Produktion und Entsorgung der Hardware noch gar nicht eingepreist.

Insgesamt gehen Schätzungen davon aus, dass bis zu 3,9 Prozent der globalen Treibhausgasemissionen auf den stark wachsenden Sektor der Informations- und Kommunikationstechnologie zurückgehen. Zum Vergleich: der weltweite Luftverkehr nimmt circa 2,5 Prozent in Anspruch. Angesichts der sich zuspitzenden Klimakrise ist es daher höchste Zeit, darüber nachzudenken, wie KI nachhaltiger gestaltet werden kann. Denn der Bedarf sowohl an der Technologie als auch an natürlichen Ressourcen für ihre Bereitstellung wird weiter steigen.

Vorschläge des Europäischen Parlaments

Das Europäische Parlament hat im Juli seine Position zur KI-Regulierung festgelegt. Das für diese Schlüsseltechnologie zentrale Gesetzespaket (AI Act) ist allerdings umstritten. Während es manchen nicht weit genug geht, steht in der Tat zu befürchten, dass gerade die strengen Auflagen für besonders potente Modelle wie GPT4 (sog. foundation models) Entwickler und Anwenderinnen in der EU vor ernsthafte Probleme stellen könnten. Macht es dann Sinn, so mag man fragen, noch über weitere gesetzliche Regeln mit Blick auf Nachhaltigkeit nachzudenken?

Die Antwort ist ein klares Ja. Zu wichtig sind Antworten auf die Klimakrise für unsere Zukunft. Allerdings müssen die Regeln für KI insgesamt geschickt gewählt werden, um relevante und konkrete Risiken zu adressieren und gleichzeitig Innovation und Anwendung in Europa zu ermöglichen. Gelingen kann dies mit den folgenden vier Schritten. Wie der AI Act müssten diese Regeln immer dann gelten, wenn KI-Modelle in der EU eingesetzt werden – unabhängig davon, wo sie entwickelt wurden.

Vier Schritte für nachhaltigere KI

Erstens ist es essenziell, die durch die KI-Regulierung adressierten Risiken zu priorisieren. Statt Entwickler dazu zu verpflichten, endlose Listen von hypothetischen Gefahrenszenarien ihrer Modelle abzuarbeiten oder wie manche Tech-Leader über den bevorstehenden Untergang der Menschheit zu fantasieren, sollte der Gesetzgeber ganz konkret einige wenige, bereits jetzt empirisch nachgewiesene Risiken in den Vordergrund stellen. Neben der Gefahr von Diskriminierung und toxischen Inhalten betrifft dies auch zentral die Dimension der ökologischen Nachhaltigkeit. Denn wenn uns das Wasser oder die sonstigen natürlichen Lebensgrundlagen ausgehen, nützen alle hehren Grundrechte nichts mehr. Hier muss der AI Act noch deutlich fokussiert werden.

Zweitens geht es um Transparenz. Die Entwickler von KI-Modellen sollten grundsätzlich verpflichtet werden, die (direkten und indirekten) Treibhausgasemissionen sowie den Wasserverbrauch, die durch Training und Anwendung ihrer Modelle entstehen, zu schätzen und zu veröffentlichen. So kann dieses Kriterium durch Marktteilnehmer, aber auch den Staat bei der Auftragsvergabe berücksichtigt werden. Bereits jetzt gibt es taugliche Instrumente, welche die Abschätzung zum Beispiel des CO2-Fußabdrucks ermöglichen.

Der AI Act geht in der durch das Parlament verabschiedeten Version bereits einige Schritte in diese Richtung. So soll künftig im Rahmen der Dokumentation von KI-Modellen im Hochrisiko-Bereich der (geschätzte) Energieverbrauch für Training und Anwendung angegeben werden. Hier sollte allerdings noch nachgeschärft werden: Letztlich spielt es für das Klima ja keine Rolle, ob ein besonders energieintensives Modell in einem Hochrisiko-Kontext wie Medizin oder für reine Unterhaltung eingesetzt wird. Daher sollte Information über den Klima-Fußabdruck zum Standard für alle Modelle werden.

Allein mit mehr Informationen wird man den Klimawandel jedoch kaum bremsen können. Daher bedarf es drittens einer stärkeren Einbeziehung der Nachhaltigkeitsdimension in die Entwicklung und Auswahl von Modellen - sustainability by design. Umsetzen lässt sich dies zum Beispiel durch eine Folgenabschätzung (Sustainability Impact Assessment). Kurz gesagt: Wenn zwei Modelle für eine Aufgabe zur Auswahl stehen, die ähnlich leistungsstark sind, aber zum Beispiel in ihrem CO2-Fußabdruck signifikante Unterschiede aufweisen, dann sollten Entwickler und Anwenderinnen verpflichtet sein, das nachhaltigere Modell zu verwenden. Das Parlament hat auch hierfür im AI Act gewisse Grundlagen gelegt.

Diese Erwägungen gelten im Übrigen nicht nur für KI, sondern für digitale und analoge Technologien insgesamt – man denke nur an den exzessiven Stromverbrauch von Bitcoin, an virtuelle, aber rechenintensive Metaverse-Welten oder an zu kühlende Datenzentren. In all diesen Fällen bestehen regelmäßig ganz unterschiedliche Möglichkeiten, Modelle und Infrastruktur zu konstruieren. Nachhaltigkeit sollte ein zentraler Faktor bei der Auswahl sein, nicht nur die Performanz.

Als Ultima Ratio wird man schließlich aber nicht umhinkommen, in einem vierten Schritt Verbrauchsobergrenzen für einzelne KI Anwendungen zu diskutieren. Um es überspitzt zu formulieren: Sollen wirklich Unmengen Wasser, Strom und Rohstoffen verbraucht werden, damit KI-gestützte Schönheitswettbewerbe die Gelangweilten der Welt unterhalten? Denkbar wäre hier, Verbrauchsobergrenzen zu definieren für Training und Anwendung von Modellen in Bereichen, die aus gesamtgesellschaftlicher Perspektive weniger essenziell sind, etwa der Unterhaltung. Dies kann insbesondere sinnvoll sein, solange die Marktsteuerung über einen CO2-Preis nur unvollkommen greift. Auch über eine Einbeziehung von digitaler Technologien in den EU-Emissionshandel lässt sich nachdenken.

Die Chancen nachhaltiger KI – auch für das Klima

Diese vier konkreten Schritte können einen Beitrag dazu leisten, KI Systeme nachhaltiger zu gestalten und zugleich eine Blaupause abgeben für die nachhaltige Entwicklung anderer Technologie- und Industriesektoren. Zugleich darf man aber das Kind nicht mit dem Bade ausschütten. In vielen gesellschaftlich relevanten Bereichen – von der Medizin über die Bildung bis hin zur Arbeitswelt – müssen wir in Zeiten von Fachkräftemangel und bei begrenzten menschlichen Fähigkeiten eher mehr als weniger KI einsetzen. Gerade auch bei der Erreichung von Nachhaltigkeitszielen kann diese einen signifikanten Beitrag leisten, wie zahlreiche Studien zeigen.

So können KI-Modelle helfen, eine effiziente Netzauslastung zu erreichen, Datenzentren stromsparend zu kühlen oder neue Strategien zur Klimaadaptation zu entwickeln. In Bereichen wie Schreiben und Illustration verursacht KI womöglich gar weniger Emissionen als Menschen, bezogen auf spezifische Aufgaben. Insgesamt brauchen wir also, wenn wir unseren gesellschaftlichen Wohlstand wahren und zugleich den Klimawandel begrenzen wollen, dringend mehr hochperformante KI in Deutschland und Europa – aber eben solche, die verantwortungsvoll und nachhaltig entwickelt und eingesetzt wird.

Der Rechtswissenschaftler Philipp Hacker ist Inhaber des Lehrstuhls für Recht und Ethik der digitalen Gesellschaft an der European New School of Digital Studies der Europa-Universität Viadrina.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen