Erweiterte Suche

Digitalisierung & KI

Standpunkte Warum wir feministische Netzpolitik brauchen

Francesca Schmidt, Referentin für feministische Netzpolitik am Gunda-Werner-Institut
Francesca Schmidt, Referentin für feministische Netzpolitik am Gunda-Werner-Institut Foto: Stephan Röhl

In unsicheren Zeiten wird oft der Ruf nach mehr Überwachung und Sicherheit laut – doch das kann schnell problematisch werden, schreibt Francesca Schmidt. Denn die Maßnahmen dafür treffen zwar alle, doch besonders schwer jene, die sowieso einen marginalisierten Status in der Gesellschaft haben.

von Francesca Schmidt

veröffentlicht am 09.02.2021

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

In Zeiten der Krise, wie wir sie momentan erleben, verstärkt sich das Bedürfnis nach Sicherheit und Politik, die ordnet und einordnet. Gleichzeitig steigt auch die Akzeptanz von Überwachungsmaßnahmen und normalisiert sie dadurch. Das hat Folgen für alle Bürger:innen, aber in der Regel besonders schwere für jene, die sowieso einen marginalisierten Status haben, oder historisch schon länger Überwachungsmaßnahmen ausgesetzt sind.

Für (Black, Indigenous, People of Color, kurz BIPoC) Frauen hat die patriarchale und rassistische Überwachung und Normierung ihres Körpers eine lange Geschichte. Diese setzt sich in der digitalen Welt mit Spyapps oder Stalkerware und Webcams ungehindert fort. (BIPoC) Frauen sind in der Folge prozentual häufiger von Cyberstalking betroffen. Aber auch in partnerschaftlichen Zusammenhängen wird Technologie als Überwachungstool eingesetzt, um Gewalt auszuüben. Elektronische Türschlösser, die eigentlich vor Einbruch schützen sollen, schließen dann beispielsweise Betroffene in ihren Wohnungen ein und werden so zu einem enormen Unsicherheitsfaktor.

Doch nicht nur im Bereich digitaler Gewalt sorgt Überwachungstechnologie für eine Intensivierung von Gewalt. Nehmen wir das Beispiel flächendeckende Videoüberwachung: Diese stellt für viele anscheinend kein Problem dar, sondern wird stattdessen als Garant für Sicherheit gesehen – obwohl Verbrechen damit nicht verhindert werden können. Soweit so gut, doch was wäre, wenn eine Künstliche Intelligenz Gesichter automatisch erkennt und dem Strafregister zuordnen könnte und wir so mögliche Verbrechen schon verhindern. Zukunftsmusik? Mitnichten! Intelligente Videoüberwachung ist schon längst im Einsatz und wurde am Berliner Bahnhof Südkreuz schon öffentlichkeitswirksam getestet. Das Projekt Sicherheitsbahnhof geht ab diesem Jahr sogar in die nächste Runde.

Affective Computing: Wenn Emotionen zu Code werden

Die Verknüpfung von automatischer Gesichtserkennung und Videoüberwachung ist aus vielen Gründen problematisch, unter anderem auch deshalb, weil Gesichtserkennung sehr fehlerhaft und voller Bias, also Voreingenommenheit, ist. Wissenschaftliche Studien zeigen, dass entsprechende Software im Grunde nur weiße männliche Gesichter gut erkennt. Auch problematisch ist die Annahme, dass wir Emotionen mittels künstlicher Intelligenz filtrieren oder gar beschreiben können. Beim Affective Computing wird genau das versucht. Emotionen werden in Daten übersetzt. Dabei wissen wir aus der Forschung, dass Emotionen einerseits kulturell unterschiedlich codiert sind und auch vom Geschlecht abhängig stereotyp klassifiziert werden. Bei der Übersetzung in automatische Entscheidungssysteme müssten wir uns also fragen, welche Auswirkungen es haben kann, wenn Wut als männlich und Hysterie als weiblich konnotiert übernommen wird.

Auch Terrorabwehr mittels Emotionen wird schon diskutiert. Das Projekt „Future Attribute Screening Technology“ des US Department of Homeland Security proklamiert, dass Video-Überwachung als eine der ultimativen Sicherheitstechnologien genutzt werden kann, um den emotionalen Zustand von Menschen zu scannen. Im Zuge der Terrorbekämpfung soll der gescannte emotionale Zustand eines Menschen Hinweis auf terroristische Absichten geben.

Die technischen Möglichkeiten der Verknüpfung von Daten, der Automatisierung von Prozessen und generellen Technologisierung von Überwachungsmaßnahmen tun ihr übriges. Überwachung geht heute weit über rein staatliches Handeln hinaus. Obwohl wir potenziell alle von Überwachung in ihren unterschiedlichen Ausprägungen betroffen sind, hat sie doch für diejenigen, die von der maskulinen weißen Norm abweichen, andere Konsequenzen. Oder anders ausgedrückt: Überwachung dient der Sicherung patriarchaler weißer Männlichkeit.

Der beliebte Satz: „Ich habe nichts zu verbergen“ und deshalb auch überhaupt kein Problem mit ausufernder Überwachung von allen Seiten, hat also gänzlich unterschiedliche Implikationen je nach gesellschaftlicher Position. Zum einen ist der Wunsch nach Privatsphäre nicht mit Geheimniskrämerei gleichzusetzen, die potentiell auch noch gesetzesbrüchig ist. Zum anderen sind es dann die Anderen die offensichtlich etwas zu verbergen haben und für die Überwachung angemessen zu sein scheint.

Neue Perspektiven für diskriminierungsfreie Netzpolitik

Aus feministischer netzpolitischer Perspektive ist der zunehmende Ruf nach Überwachung und immer mehr Sicherheit in unsicheren Zeiten problematisch. Denn dieser Wunsch ist gleichzeitig einer, der mit Starrheit, Unveränderbarkeit und Normierung einhergeht. Für alle jenseits dieser oft weißen Norm, wird Sicherheit so zum Unsicherheitsfaktor, denn sie stehen dann unter besonderer Beobachtung. Wenn wir also als Gesellschaft unser Sicherheitsbedürfnis an weißen patriarchalen Strukturen ausrichten, nehmen wir den Ausschluss von (BIPoC) Frauen und anderen marginalisierten Gruppen billigend in Kauf. Schlimmer noch, wir verwehren uns der Möglichkeit eines Gesellschaftsentwurfes, der auf Einschlüssen und Gleichwertigkeit beruht. Eine intersektionale feministische Perspektive, auch auf Netzpolitik, muss daher leitend sein, um Wege eines neuen, diskriminierungsfreien Miteinanders aufzuzeigen.

Francesca Schmidt ist Referentin für Feministische Netzpolitk am Gunda-Werner-Institut für Feminismus und Geschlechterdemokratie. Dort forscht sie zu Themen wie Überwachung und Kontrolle, digitaler Gewalt sowie Künstlicher Intelligenz und deren sozionormative Implikationen. Vergangenes Jahr erschien ihr Buch „Netzpolitik. Eine feministische Einführung“. Heute diskutiert sie dazu bei der Veranstaltung „Vom Mythos neutraler Algorithmen“ bei der Heinrich-Böll-Stiftung.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen