Standpunkt Diskriminierung vorprogrammiert?

Ungleichheitsverhältnisse übertragen sich nahtlos ins Internet: Diskriminierte Menschen ziehen sich aus digitalen Räumen zurück, Rassismus wird im Code festgeschrieben. Katharina Mosene vom Leibniz-Institut für Medienforschung fordert deshalb in ihrem Standpunkt, Diskriminierungsmuster zu hinterfragen.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? hier einloggen

Technik ist nie neutral. Und auch wenn uns das Internet als Medium zunächst eingeladen hat in vermeintlich neuen Öffentlichkeiten etablierte, feststehende Rollenbilder und Identitäten zu dekonstruieren, tradierte Macht- und Herrschaftsverhältnisse aufzubrechen, so müssen wir doch heute vor allem über Ungleich-Verhältnisse im digitalen Raum sprechen.

Schauen wir zum Beispiel auf das Thema der Digitalen Gewalt, so sind gerade marginalisierte Gruppen auch in der digitalen Welt nach wie vor in besonderem Maß von Diskriminierung betroffen. Sexismus, Rassismus, Antisemitismus, Trans‑ und Homophobie sind die Hauptthemen von Hate Speech. Darüber hinaus erhöht die Zugehörigkeit zu mehr als einer Minderheit, die im Netz angefeindet wird, die Gefahr, Opfer digitaler Gewalt zu werden.

Ohne einen intersektionalen Zugriff auf Diskriminierungsstrukturen und manifeste Ausschlusssysteme, ohne die Analyse und das Sichtbar-Machen von exklusiven Kategoriensystemen, die sich nicht zuletzt in Sprache manifestieren, können wir weder digital noch analog einen Zugriff auf dieses vielschichtige Thema finden.

Sprechen wir also über Ausschlusssysteme als tradierte Strukturen, über „Gender und Race“, und die Frage nach Zugang zu materiellen wie immateriellen Ressourcen. Zugangschancen und Teilhabemöglichkeiten, Chancen auf Bildung und Beteiligung sind innerhalb unserer Gesellschaft ungleich verteilt, darauf machen feministische und antirassistische Bewegungen schon lange aufmerksam. 

Das Internet als Spiegel der Gesellschaft

Es gilt: praktisch alle Ungleichheitsverhältnisse tragen sich nahtlos ins Internet, nicht selten verstärkt. Intersektional betrachtet wird schnell deutlich, dass sexistische oder geschlechtsbezogene Hate Speech Frauen* (damit gemeint sind alle, die sich hinsichtlich ihrer Geschlechtsidentität als Frau* begreifen) unterschiedlich stark betrifft, sie aber vor allem in ihrer Unterschiedlichkeit betrifft. Amnesty International hat in diesem Bereich festgestellt, dass Schwarze Frauen* zum Beispiel deutlich häufiger von Hate Speech auf Twitter betroffen sind als weiße Frauen*.

Ständige Bedrohung online führt zu Rückzugsmechanismen, das ist empirisch belegt. Dies schließt digital wie analog Betroffene aus diskursiven Räumen aus, hindert sie daran ihre Meinungsfreiheit auszuüben, führt letztlich zu einer verzerrten Mehrheitswahrnehmung im sogenannten öffentlichen Raum und konterkariert mithin unser Verständnis von Demokratie als solches.

Für eine umfassende wissenschaftliche Analyse von Diskriminierungsstrukturen in Deutschland aber fehlen uns schlicht die Zahlen. Denn der erhobene Migrationshintergrund alleine, ist wenig aussagekräftig. Schaut man sich zum Beispiel Schwarze Lebensrealitäten in Deutschland an, so endet Rassismus-Erfahrung nicht nach der zweiten oder dritten Generation. Eine weiße deutsche Person mit Migrationshintergrund dagegen, die zum Beispiel weiße, sagen wir dänische Eltern hat, macht aber in Deutschland eher keine Rassismuserfahrungen. Der bald startende #Afrozensus soll hier Abhilfe schaffen und ist ein Projekt, das wir alle mit Spannung verfolgen sollten. 

Wer schreibt den Code?

Mit Blick auf Künstliche Intelligenz ist schon länger klar, dass diskriminierende Stereotype sich im Code manifestieren. Es ist hinlänglich bekannt, dass biometrische Gesichtserkennung Schwarze Menschen und People of Colour nur unzureichend identifizieren kann, da sie sich überwiegend auf Trainingsdatensätze weißer Personen stützt. Noch Ende letzten Jahres hat das National Institute of Standards and Technology darauf hingewiesen, dass People of Colour überdurchschnittlich häufig falsch zugeordnet, also zum Beispiel im Rahmen der Strafverfolgung, für eine gesuchte Person auf einem Bild gehalten werden. Gebündelt als Big Data werden tradierte Ausschlusssysteme so implizit in den Code eingeschrieben. 

Wie kann das sein?

Silicon Valley ist nach wie vor von weißen Männern dominiert. Auch Zukunftsinnovationen und Utopien, die uns von dort erreichen, kommen aus den Köpfen von weißen, materiell durchaus gut ausgestatteten Cis-Männern. Computer und Maschinen lernen im Ende nicht anders als Menschen. Sie reproduzieren, was ihnen an Input angeboten wird und bilden daraus Kategoriensysteme. Auch Algorithmen also sind anfällig für Vorurteile.

Es scheint, als gäbe es als Reaktion auf die #BlackLivesMatter-Demonstrationen ein Umdenken bei Technologie-Konzernen, was das Thema Gesichtserkennung im Rahmen der Strafverfolgung (Stichwort: Racial Profiling) angeht. Derzeit immerhin sieht es aus, als habe sich auch Microsoft nach IBM und Amazon dazu bekannt, US-amerikanischen Polizeibehörden ihre KI-Technologien zunächst nicht weiter zur Verfügung zu stellen. 

Und auch in der Sprache tut sich etwas: Google will rassistische Begriffe aus seinem Code streichen. „Blacklist“ wird durch „Blocklist“ ersetzt und „Whitelist“ durch „Allowlist“. Ebenso überarbeitet werden soll die Benennung der Hierarchie-Zusammenhänge von „Master“ und „Slave“ im Rahmen digitaler Architekturen. Code ist Sprache. Sprache formt Denken, Sprache erst erzeugt Rahmen und Grenzen, ein Innen und Außen, Wir und Sie. Woher kommst du? Stellen Sie Menschen diese Frage? Wen fragen Sie das? Und warum?

Katharina Mosene ist Politikwissenschaftlerin und betreut am Leibniz-Institut für Medienforschung │ Hans-Bredow-Institut (HBI) den Bereich Forschungs- und Veranstaltungskooperationen, vor allem im Zusammenhang mit dem Humboldt-Institut für Internet und Gesellschaft (HIIG). Dort spricht sie heute im Digitalen Salon über das Thema Diskriminierung im digitalen Raum. 

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? hier einloggen

Das könnte Sie auch interessieren