Digitalisierung-KI icon

Digitalisierung & KI

Standpunkte Wir brauchen neue Wege bei der KI-Risikobewertung

Valerie Hafez von Women in AI Austria und Dániel Kondor von Complexity Science Hub
Valerie Hafez von Women in AI Austria und Dániel Kondor von Complexity Science Hub Foto: Benita Donschachner, Alan NG

Ein Algorithmus zur Notenvergabe sorgte in Großbritannien für massive Proteste – und offenbarte ein unterschätztes Risiko: die Verstärkung sozialer Ungleichheit durch KI. Der Fall zeigt, warum technische Lösungen ohne sozialen Kontext nicht funktionieren können, schreiben Valerie Hafez von Women in AI Austria, Dániel Kondor von Complexity Science Hub und ihre Mitautor:innen im Standpunkt.

von Valerie Hafez und Daniel Kondor

veröffentlicht am 16.04.2025

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Im aufgeheizten Diskurs über Risiken vont Künstlicher Intelligenz (KI) kommen die Auswirkungen spezifischer KI-Systeme oft zu kurz. Einige nehmen KI-Risiken als zukünftige Probleme wahr, während andere versuchen, bereits eingetretene Schäden in Zukunft zu vermeiden. Dabei wird es schwieriger zu verstehen, wie uns KI-Risiken betreffen und wie wir ihnen begegnen möchten.

Wenn nun Risiken im Zusammenhang mit bestimmten KI-Systemen evaluiert werden, werden als Basis oft nur dafür bekannte Faktoren herangezogen, die gepaart mit passenden Maßnahmen veröffentlicht werden. Dieses Vorgehen erleichtert es, Produkte wie KI-Systeme schneller einzusetzen. Man muss nicht jedes Mal das Rad neu erfinden und kann auf bestehendem Wissen aufbauen.

Dabei können aber solche Risiken vernachlässigt werden, die erst im Laufe der Zeit entstehen. Außerdem sind für Risikoanalysen oft Expert:innen zuständig, die den jeweiligen Risiken konkrete Werte zuordnen müssen. Welcher Schaden entsteht eigentlich, wenn ein Risiko eintritt? Welche Risiken müssen unbedingt adressiert werden? Und welches Restrisiko ist akzeptabel?

Ein britisches „How-not-to“

Während der Corona-Pandemie suchte die britische Regierung nach einer Möglichkeit, die Noten von Schüler:innen trotz der Absage von Prüfungen mithilfe eines Algorithmus möglichst fair zu vergeben. Aus Sicht der Regierung galt es, eine Inflation der Schulnoten zu verhindern, um das Vertrauen in die vergebenen Noten sicherzustellen und nicht plötzlich zu viele Leute an Hochschulen zu schicken.

Dagegen bestand für Schüler:innen die Gefahr, eine schlechtere Note zu bekommen als erwartet. Schlussendlich hat der Algorithmus sogar beide Probleme realisiert: Durchschnittliche Noten waren plötzlich besser als zuvor, aber 40 Prozent der Schüler:innen erhielten schlechtere Noten als sie es erwartet hatten.

Davon betroffen waren häufiger jene, die bereits sozioökonomisch benachteiligt waren. Gerade für jene verspricht der Zugang zu Hochschulen soziale Mobilität. Wäre die algorithmische Benotung nicht nach massiven Protesten zurückgezogen worden, wäre der Zugang vieler Schüler:innen zu Hochschulen aufgrund der schlechteren Noten unverdienterweise eingeschränkt worden.

Dieses Beispiel zeigt, was wir künftig unbedingt berücksichtigen müssen: Das Risiko, Ungleichheit zu verstärken, bedingt durch komplexe Rückkopplungen zwischen Gesellschaft und Technologie. Um dieses Risiko zu mindern, muss der soziale Kontext, in dem Algorithmen eingesetzt werden, sorgfältig berücksichtigt werden.

Es braucht mehr Diversität bei der Risikobewertung

Wenn wir uns die langfristigen Auswirkungen von Empfehlungsalgorithmen ansehen, zeigt sich sehr schnell, dass diese bereits bestehende soziale Ungleichheiten reproduzieren. Wenn Frauen weniger oft zitiert werden, obwohl sie wertvolle Beiträge zur Wissenschaft publizieren, verstärken Empfehlungsalgorithmen ihre Ausgrenzung und damit die systemische Ungleichheit zwischen Männern und Frauen. Wie im Fall der Benotung wirken sich algorithmische Modelle real auf Menschen aus, was gesellschaftliche Ungleichheiten verstärken kann.

Was wäre also, wenn wir Risikoabschätzungen anders gestalten als bisher? Wir könnten anfangen, Ungleichheit in Risikoanalysen mitzubetrachten. Besonders dann, wenn es um KI-Systeme geht, die viele Menschen betreffen und deren Entscheidungen langfristige Folgen haben, wie im Falle der Benotungs- und Empfehlungsalgorithmen.

Wir könnten die langfristige Interaktion von Risikofaktoren durch komplexitätsbasierte Modellierungen beobachten – also mithilfe von Modellen, die komplexe Wechselwirkungen besser abbilden. Oft sind das Computersimulationen, die untersuchen, wie sich das Verhalten einzelner Elemente auf das Gesamtsystem auswirkt. Ein Beispiel: Anstatt einfach anzunehmen, dass „gute“ Forschung automatisch häufiger zitiert wird, könnten spezielle Simulationen nachverfolgen, wie sich Zitationsnetzwerke und darauf basierende Empfehlungssysteme gemeinsam entwickeln. Wir könnten betroffene Personen zudem etwa durch Kompetenzgruppen einbinden, damit die Auswirkungen des Einsatzes von KI-Systemen auch breit unterstützt werden können.

Wir möchten mit diesem Vorschlag ein Umdenken anregen, im Sinne verantwortungsbewusster Innovation. Mehr Diversität bei der Risikobewertung öffnet uns für die Betrachtung von realen, auch langfristigen, Auswirkungen technologischer Systeme auf unsere Gesellschaft und Umwelt. Damit stellen wir sicher, dass wir als Gesellschaft unsere Möglichkeiten zur Mitgestaltung von Technologien beibehalten. Technologie gibt nicht von selbst eine unausweichbare Richtung vor – es kommt darauf an, wie wir sie einsetzen und ausgestalten.

Valerie Hafez setzt ihre Expertise aus der Anthropologie und Technikforschung dazu ein, praxisorientierte Ansätze für den Umgang mit Technologien voranzutreiben. In ihrer wissenschaftlichen Tätigkeit für Women in AI Austria trägt sie zu interdisziplinären Herangehensweisen für verantwortungsbewusste Entwicklung und Nutzung von KI-Systemen bei.

Dániel Kondor ist Wissenschaftler am Complexity Science Hub (CSH) und arbeitet mit computergestützten Modellen, die auf soziale Phänomene im Verlauf der Geschichte angewendet werden.

An dem Text haben auch Fariba Karimi und Sudhang Shankarvon der TU Graz sowie Rania Wazir, Co-Gründerin und CTO von Leiwand.AI, mitgeschrieben.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen