Digitalisierung-KI icon

Digitalisierung & KI

Standpunkte Der Balanceakt zwischen Nutzen und Ethik

Farshad Badie, Dekan der Fakultät für Informatik und Informationstechnik an der Berlin School of Business and Innovation
Farshad Badie, Dekan der Fakultät für Informatik und Informationstechnik an der Berlin School of Business and Innovation Foto: privat

Training mit Userdaten verbessert KI-Anwendungen erheblich, sagt Farshad Badie von der privaten Berlin School of Business and Innovation. Hier schreibt er, wie dabei die Balance zwischen technologischem Fortschritt und Privatsphäre gewahrt wird.

von Farshad Badie

veröffentlicht am 15.08.2024

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Um Künstliche Intelligenz (KI) kommen wir in unserem Alltag nicht mehr herum: Oft im Hintergrund arbeitend, ist die Technologie in verschiedenste Prozesse involviert. Immer hat sie das Ziel, diese zu optimieren und unser Leben zu erleichtern. Mit einem rasanten Tempo hat sich der KI-Bereich weiterentwickelt und verbessert. Der Fortschritt ist auch auf das KI-Training mit Userdaten zurückzuführen.

Der US-Konzern Meta kündigte kürzlich in seinen neuesten Datenschutzrichtlinien das Vorhaben an, das eigene KI-Tool „Meta AI“ auch für seine europäischen Plattformen, einschließlich Facebook und Instagram, nutzen zu wollen. Was folgte, war große Kritik von Daten- und Verbraucherschützer:innen. Einige Verbraucherschutzgruppen äußerten ihre Bedenken, Training mit Nutzerdaten verstoße gegen europäisches Recht. Deshalb hat das Unternehmen vorerst entschieden, den Start seines Tools in Europa zu verschieben, bis die Zweifel ausgeräumt sind.

Trainieren Unternehmen ihre Modelle mit Userdaten, steigt die Leistungsfähigkeit von KI-Modellen deutlich. Userdaten bieten einen enormen Schatz an Informationen und ermöglichen es, KI-Systeme präziser und effizienter zu gestalten. Daraus resultieren optimierte, personalisierte und kontextualisierte Dienste, die den individuellen Bedürfnissen der User besser gerecht werden können. So liefern Suchmaschinen etwa relevantere Ergebnisse und Sprachassistenten geben eher kontextbezogene Antworten.

Ebenso können User-Stereotype durch das Training mit Daten aus aller Welt aufgebrochen werden. Denn aktuell werden viele KI-Systeme noch ausschließlich mit Daten aus den USA trainiert. Die Ergebnisse spiegeln daher auch vor allem die westliche Welt. Deshalb kann es zu kulturellen und regionalen Verzerrungen kommen. Google pausierte zum Jahresbeginn 2024 seine Gemini-KI-Funktion des Generierens von Personen, nachdem unter anderem historisch inkorrekte Bilder von Soldaten des Zweiten Weltkriegs erstellt wurden. Das KI-Modell von Google ist zwar auf Diversität trainiert, aber in diesem Fall wurde es ihm zum Verhängnis. Der Fauxpas wäre sicherlich nicht passiert, wenn die KI-Trainingsdaten ausgeglichener gewesen wären. Werden Daten aus verschiedenen Regionen wie Europa einbezogen, kann die KI faire und integrative Ergebnisse liefern.

Stereotype lassen sich mit Userdaten aufbrechen

Dies ist auch ein Argument von Meta: Ohne lokale, europäische Daten kann KI keine erstklassigen Ergebnisse liefern. In Ländern wie den USA, Kanada, Neuseeland oder Australien wird Meta AI schon genutzt und ist ebenfalls als Chatbot in WhatsApp oder Facebook Messenger integriert. KI kann eine riesige Menge an Userdaten analysieren und damit Muster im Sprachgebrauch erkennen, Stereotype aufbrechen und ein nuanciertes Verständnis der menschlichen Kommunikation schaffen. Das macht das Tool nicht nur gerechter, sondern erhöht auch die Akzeptanz und das Vertrauen der Benutzer:innen in KI-Technologien.

Die potenzielle Verletzung der Privatsphäre ist aber nicht zu unterschätzen. Die Nutzung privater Beiträge ohne ausdrückliche Zustimmung der User wirft erhebliche Datenschutzbedenken auf. Das Problem lässt sich beheben, indem die Plattformen auf leicht verständliche und benutzerfreundliche Weise um Einverständnis bitten (Opt-in). Unternehmen sollten die gesammelten Daten zudem anonymisieren, sodass sie nicht auf Einzelpersonen zurückzuführen sind. Der Schutz der Privatsphäre und die Kontrolle über ihre Daten muss oberste Priorität haben.

Gelangen die Daten in die Hände von kriminellen Hacker:innen, könnten diese für unethische Zwecke verwendet werden. Deshalb müssen Firmen robuste Sicherheitsmaßnahmen ergreifen. Zudem sollten sie alle Zugriffe und Aktivitäten protokollieren, um im Ernstfall Übergriffe besser nachverfolgen zu können. Einige Unternehmen schließen zusätzlich Verträge mit Drittanbietern, um sicherzustellen, dass Sicherheitsmaßnahmen eingehalten werden.

In der Praxis trainieren die meisten Firmen ohnehin mit Userdaten

Die Nutzung von Userdaten wirft auch ethische Fragen auf. Wer trägt die Verantwortung für die Entscheidungen, die basierend auf KI getroffen werden? Wie können wir gerechte und nachvollziehbare Entscheidungen sicherstellen? Meines Erachtens erfordert das eine sorgfältige Abwägung und einen transparenten Dialog zwischen Entwickler:innen, Usern und Regulierungsbehörden. Eine verantwortungsvolle Datenerfassung und ethische Schulungspraktiken sind unverzichtbar.

In der Praxis trainieren die meisten großen Unternehmen ihre Systeme schon mit Userdaten. Google stützt sich bei der Entwicklung von Produkten wie den Ranking-Algorithmen der Google-Suchmaschine oder der Spracherkennungssoftware auf seine Userdaten, die es aus Google-Suchanfragen und Browsing-Aktivitäten in Google Chrome generiert. Der global agierende Online-Versandhändler Amazon verfeinert seine Modelle mit Daten aus Produktkäufen und Sprachinteraktionen mit Alexa. Damit personalisiert der Lieferdienst Produktempfehlungen, verbessert die Lieferlogistik und betreibt die Funktionen des Sprachassistenten von Alexa.

Ebenso analysiert ChatGPT-Anbieter Open AI die Interaktionen seiner Benutzer:innen. Um die Frage, ob und in welchem Umfang Open AI seine KI mit öffentlich zugänglichen Werken von Autor:innen, Designer:innen oder Fotograf:innen trainieren darf, gibt es in den USA aktuell einen Rechtsstreit. Mittlerweile können die Kunstschaffenden gegen diese Verwendung widersprechen. Letztlich fehlt es hier an einem wichtigen Aspekt, um Vertrauen zu schaffen: Transparenz.

Die transparente Kommunikation von Meta bezüglich seiner KI-Trainings-Pläne führt für mich nur vorübergehend zu einem Nachteil für den Konzern. Das Engagement für eine verantwortungsvolle Datenerfassung und den Schutz der User-Privatsphäre wird sich aus meiner Sicht jedoch langfristig als Vorteil für Meta erweisen und das Vertrauen und die Markentreue fördern.

Es liegt an uns, einen verantwortungsvollen und ethischen Umgang mit Userdaten zu finden. Durch Transparenz, Datenschutzmaßnahmen und eine offene Diskussion über ethische Fragen schaffen wir eine Balance zwischen technologischem Fortschritt und einem Schutz der Privatsphäre.

Farshad Badie ist Dekan der Fakultät für Informatik und Informationstechnik an der Berlin School of Business and Innovation. An der privaten Wirtschaftsschule forscht er zu Informationswissenschaft, Logik und der Philosophie der Künstlichen Intelligenz.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen