Erweiterte Suche

Digitalisierung & KI

Standpunkte Raus aus der KI-Schockstarre

Christin Schäfer, ACS Plus
Christin Schäfer, ACS Plus Foto: Grips

Teile der Fachwelt beschwören existenzielle Risiken durch KI für die Menschheit herauf. Statt über das Zutreffen solcher Szenarien zu sinnieren, müssen wir vom Schock ins Handeln kommen, ist die Datenexpertin Christin Schäfer überzeugt. Daran werden wir uns als intelligente Spezies messen lassen müssen.

von Christin Schäfer

veröffentlicht am 07.08.2023

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Die Diskussion darüber, wie intelligent „Künstliche Intelligenz“ (KI) ist, ist nicht wirklich zielführend. Sind Menschen intelligent? Auch morgens vor dem ersten Kaffee? Wollen wir wirklich etwas erschaffen, was uns gleicht? Wenn man sich umschaut, könnte man zu dem Schluss gelangen, dass dies bisher eher suboptimal verlaufen ist.

Eine weniger mythologische Sichtweise erleichtert die Diskussion. Damit können wir uns auch den Gefahren von Künstlicher Intelligenz besser nähern – und die Debatte müssen wir durchaus führen. Künstliche Intelligenz ist keine Kreatur, sondern ein Werkzeug. Genauer gesagt, verfügen wir mittlerweile über eine umfangreiche Werkzeugsammlung mit spezialisierten Tools, beispielsweise zur Objekterkennung oder Steuerung sowie Vorhersage komplexer Systeme. Diese Werkzeuge brauchen wir, um Probleme in ganz unterschiedlichen Bereichen zu lösen – und zwar schnell! Es steht uns daher gut zu Gesicht, weniger über die Risiken von KI an sich zu sprechen, und mehr darüber, wie wir diese Risiken managen können.

Angst vor Kontrollverlust ist überhöht

Wie jede Technologie hat die KI-Werkzeugkiste neben einem Mehrwert- auch ein Gefahrenpotential. Seit ChatGPT der breiten Öffentlichkeit zugänglich ist, wird intensiv über potenzielle Risiken, die von KI ausgehen, gesprochen – teilweise mit eher religiöser Inbrunst. KI wird von einigen Experten sogar als existenzielles Risiko dargestellt. Dabei steht die Ausrottung der Menschheit durch eine KI am Ende von Szenarien aus langen „wenn/dann“-Ketten. Wenn ein digitales System heute bereits so perfekt kommunizieren kann, dann könnte es morgen womöglich alles andere auch. Für dieses Szenario gibt es im Moment aber noch keine Evidenz.

Im Kern geht es bei den Sorgen um die Frage nach Kontrolle. Behält der Mensch die Kontrolle über die digitalen Systeme? Oder kommt plötzlich der entscheidende Moment, an dem der Menschheit diese Kontrolle entgleitet? Wenn dies passiert, so wird behauptet, könnte die KI die Menschheit auslöschen – eine sehr menschliche Sicht von Intelligenz. Nur weil der Mensch, wann immer sich die Gelegenheit bietet, andere Menschen unterwirft, versklavt, ermordet, ist dies zum einen nicht intelligent und zum anderen nicht zwangsläufig. Das Miteinander intelligenter Spezies muss nicht notwendig ein „Winner takes it all“-Szenario sein, in dem es nur einen Gewinner, also Überlebenden gibt. Kann es sein, dass wir uns nicht vor Künstlicher Intelligenz, sondern vor allem vor uns selbst fürchten?

Und machen wir uns nichts vor: Für die Katastrophe braucht es gar keine Superintelligenz mit Bewusstsein und eigenen Zielen. Es reicht völlig aus, unintelligente Systeme sehr ungeschickt in Betrieb zu nehmen. Und nicht einmal das ist erforderlich: Die Menschheit hat sich auch so schon sehr nah an den Abgrund gebracht.

Kein absoluter Schutz vor Manipulation möglich

Aktuell besteht vor allem die Gefahr, dass der Hype über potenzielle Risiken uns von den realen Problemen ablenkt. Es ist bekannt, dass manche KI-Systeme im Hinblick auf Fairness verbessert und Biases reduziert werden müssen. Besonders kritisch ist die im digitalen Raum geführte Kommunikation.

Die Probleme sind nicht neu. E-Mail und Internet ermöglichen asynchrone Interaktionen von Menschen, die räumlich getrennt sind. Vom ersten Tag an bestand das Problem, über die Identität des Gegenübers nicht sicher sein zu können. Mit dem Aufkommen sozialer Medien ist immer mehr soziale Interaktion ins Digitale gewandert und die Problematik des „unbekannten“ Gegenübers stieg signifikant. Gleichzeitig haben die sozialen Medien es jedem erlaubt, Content zu produzieren und zu veröffentlichen. Sie sind damit die modernste Technologie, die effizient und skalierbar zur Manipulation genutzt werden kann.

Die Effizienz und Subtilität dieser Manipulation werden durch generative KI Tools extrem gesteigert. Wer will, kann seine Sicht der Dinge aufwandsarm den vielen kleinen Bereichen der zersplitterten Informationsgesellschaft mundgerecht servieren. Dabei ist niemand davor gefeit, ein generiertes Bild oder einen erfundenen Artikel für Wahrheit zu halten. Die Qualität des Contents, der durch die neuesten Versionen der generativen KIs erzeugt wird, ist – leider – fantastisch. Zu allem Überfluss sind wir und unser Unterbewusstsein Fake News und Desinformationen – vor allem visuellem Input – schutzlos ausgeliefert. Selbst wenn eine Darstellung dick und fett mit „Fake“ überschrieben wird, werden wir das Bild sehen, es „wahrnehmen“ und für wahr halten. Der Ratio kann diesen Prozess nicht aufhalten. Wir haben keine internen Abwehrmechanismen.

Bereits jetzt herrscht im Netz viel Misstrauen. Wir steuern auf ein Versagen des Informationsmarktplatzes zu, eine „Infokalypse“ wie Aviv Ovadya von Harvard's Berkman Klein Center meint, bei der einige gar nichts mehr glauben, andere dagegen Fake für Wahrheit halten. Der Vertrauensverlust wird jeden Tag stärker und setzt sich aus dem Digitalen in unserer analogen Wirklichkeit fort, wirkt auf unsere Gemeinschaft, das Sozialgefüge, unsere Gesellschaft. Ohne Institutionen und Praktiken, die die Glaubwürdigkeit von Informationen sicherstellen und garantieren können, wird unserem demokratischen Diskurs der Boden entzogen. Wir verlieren unser gemeinsames Narrativ verbindlicher Werte, Ideale und geteilter Überzeugungen, das jede Gesellschaft, insbesondere eine freie, demokratische unbedingt benötigt.

Raus aus der Schockstarre, rein ins Handeln

Es ist allerhöchste Zeit, eine Kehrtwende einleiten. Wir werden die Zahnpasta nicht mehr zurück in die Tube bekommen. Wir müssen lernen, mit der veränderten Situation umzugehen. Und unseren Informationsmarktplatz so schnell es geht umgestalten, erneuern und stabilisieren. Dabei kommt Journalisten und Medienunternehmen eine wichtige Rolle zu. Wir brauchen dringend Gatekeeper, die Fakten prüfen, und digitale Nachrichtenräume, die vertrauenswürdig und als solche erkennbar sind – Kontrapunkte zu den und Druckpunkte für die sozialen Medien. Auch zur Einführung von Verbesserungen haben wir Technologie zur Hand – etwa digitale IDs und KI-Tools, die statt zur Generierung von Content dazu eingesetzt werden können, die Spreu vom Weizen zu trennen.

Das Wichtigste ist, nicht aus Sorge vor den potenziell existenziellen Risiken von KIs in eine Schockstarre zu verfallen. Nichts, absolut gar nichts, ist zwangsläufig. Es besteht eine große Gefahr, dass Projekte, bei denen Künstliche Intelligenz etwa zur Steuerung unserer Energie-Infrastruktur und zur Verbesserung von nachhaltigem Handeln dienen, nicht mit hoher Priorität vorangetrieben werden. Das wäre ein reales Desaster, das wir uns als „intelligente“ Gemeinschaft nicht erlauben können.

Christin Schäfer ist Geschäftsführerin von ACS Plus, einem forschungsnahen Technologieunternehmen im Bereich Data Science und Data Engineering. Zudem sitzt sie in mehreren Beiräten, etwa von VIDA (Village Data Analytics), der Kryptobörse Binance oder der Forschungsgruppe Big Data Analytics beim Institut der deutschen Wirtschaft in Köln. 2018 bis 2019 war sie Mitglied der Datenethikkommission der Bundesregierung. 

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen