Standpunkt Die unheimliche Macht der dunklen Daten

Niemand weiß, wie die Masse an Daten, die Unternehmen von ihren Nutzern sammeln, ausgewertet werden könnten. Vielleicht brauchen wir einen „Uploadfilter“ dafür, sagt Iris Lorscheid, Studiengangsleiterin für Digital Business & Data Science an der University of Applied Sciences Europe in Hamburg.

Lernen Sie Tagesspiegel Background kennen

Jetzt kostenlos lesen
Sie sind Background-Kunde und haben noch kein Passwort? Wenden Sie sich an unseren Support oder hier einloggen

Die Masse an Daten, die wir sammeln und verwalten, übersteigt bei weitem unsere Fähigkeiten sie zu analysieren. So bleibt der Wert von dunklen Daten für Unternehmen und unsere Gesellschaft unerkannt, aber auch unvorhersehbar, welche Risiken diese Daten einmal darstellen können.

Wir haben gute Chancen unser Leben in einer digitalisierten Welt zu verbessern. Es gibt große Potentiale, wie wir sie in den Bereichen Gesundheit oder Smart Mobility klar vor uns sehen. Doch wir können das Thema nicht ganz in die Hände der Unternehmen legen. Daten sind ein Wirtschaftsgut und werden vor allem in diesem Zusammenhang bewertet. Sie sind aber auch der zentrale Botenstoff unseres persönlichen Lebens. Wir geben unser Einverständnis für die Verwendung dieser Daten bei Klicks auf Webseiten und Installationen von Apps – und schicken sie damit auf unabsehbare Wege.

Ausgemessen: Datenmassen bilden digitales Persönlichkeitsprofil

Soziologen und Psychologen forschen intensiv an Indikatoren für Persönlichkeitseigenschaften und Präferenzen aus unserem Online-Verhalten. Eine Studie der University of Pittsburgh hat eine Verbindung zwischen Nutzungsverhalten von Social Media und Depression hergestellt. Viele weitere Studien untersuchen die Vorhersagekraft von Persönlichkeitsmerkmalen auf Grundlage von Online- und Social-Media-Verhalten. Somit setzt sich immer leichter ein digitales Persönlichkeitsbild zusammen. Es werden noch mehr Indikatoren gefunden werden. Die Informationen, um sie zu nutzen, warten in der Masse an dunklen Daten, die fortlaufend über uns gesammelt werden und möglicherweise weit in die Vergangenheit reichen. Die Mächtigkeit der Methoden wird nicht mit Deep Learning enden. Es werden mehr Methoden entwickelt werden, die noch effizienter große und unstrukturierte Datenmengen verarbeiten können.

Die Daten über uns gehören Unternehmen. Wir können nachfragen, haben aber nicht die Kontrolle über mögliche Auswertungen. Daten können ihren Weg zu Dritten finden oder ungesichert zugänglich für Kriminelle sein. Das große ungenutzte Universum der gesammelten Sprachdaten über intelligente Home-Systeme wie Alexa eröffnet weitere Möglichkeiten und dringt sehr unmittelbar in unser privates, auch analoges Leben ein. Keiner kann absehen, welche Geschichten sie von uns erzählen werden. Vielleicht brauchen wir absolute Grenzen dessen, was wir nicht erheben möchten, einen Uploadfilter für höchstpersönliche Bereiche.

Regulierung gegen Missbrauch

Wenn Dritte wie Arbeitgeber oder Versicherer Konsequenzen an Daten knüpfen, müssen wir verhindern, dass es zu einer digitalen Stigmatisierung kommt. Der Lebensversicherer John Hancock in Nordamerika bietet seinen Versicherten Boni auf Basis von Fitnesstracking-Daten an. Black-Box Autoversicherungen statten Autos mit Tracking-Geräten aus, um auf Basis von Informationen wie Fahrstil und Fahrzeiten Prämien zu definieren. Auch wenn es wie ein Schritt in eine faire Einzelbewertung gesehen werden kann, also Entscheidungen auf Basis von Small Data statt Big Data, muss man auf die Fairness und Neutralität der Algorithmen schauen. Vielleicht halten den Einzelnen Behinderungen oder die Pflege von Angehörigen von Bewegung ab oder nächtliche Fahrten sind für den Schichtdienst erforderlich. Welche individuellen Faktoren werden angeschaut, welche bleiben im Dunkeln, wie werden sie bewertet, und vor allem: Gibt es potentielle Diskriminierungen?

Wir sollten nicht darauf warten, dass ein grober Missbrauch zu einem großen Aufschrei führt, der mit extremen Restriktionen beantwortet wird. Aus Angst könnten wir dann zu unreflektierten Verboten greifen und der Traum einer besseren digitalen Welt wäre zerstört.  Es braucht eine gesellschaftliche Diskussion, welche Regeln wir brauchen, um die Potentiale dunkler Daten auszunutzen und die Risiken zu reduzieren.


Die Informatikerin Iris Lorscheid ist seit Anfang dieses Jahres Professorin an der University of Applied Sciences Europe in Hamburg und leitet dort den  Bachelorstudiengang Digital Business & Data ScienceEinen wesentlichen Teil ihrer Lehre widmet sie dem Thema der dunklen Daten.

Lernen Sie Tagesspiegel Background kennen

Jetzt kostenlos lesen
Sie sind Background-Kunde und haben noch kein Passwort? Wenden Sie sich an unseren Support oder hier einloggen