Standpunkt Simple Geschichten über KI sind eine Gefahr

Künstliche Intelligenz ist weder eine Bedrohung noch ein Retter – sie ist ein Werkzeug, das Fehler hat. Europa hat die Chance, diese Mängel zu beheben, argumentiert Mark Surman von der Mozilla Foundation.

Lernen Sie Tagesspiegel Background kennen

Jetzt kostenlos lesen
Sie sind Background-Kunde und haben noch kein Passwort? Wenden Sie sich an unseren Support oder hier einloggen

Obwohl Künstliche Intelligenz (KI) eine Technologie ist, mit der Milliarden von Menschen täglich interagieren, wird sie schwer missverstanden. Bislang nimmt die Gesellschaft sie auf eine von zwei Arten wahr. Sie ist entweder eine existenzielle Bedrohung, nur ein paar Codezeilen von der Weltherrschaft entfernt. Diese Ansicht ist geformt durch Science Fiction wie im Film „Terminator“ und durch Menschen wie Elon Musk, die twittern, dass KI eine größere Bedrohung für die Menschheit sei als Atomwaffen. (Ist sie nicht.)

Auf der anderen Seite wird KI als Erlösung wahrgenommen. Optimistische Futuristen und Politiker stellen sich vor, dass KI unser Gehirn verbessert und unser Leben verlängert. Als die Trump-Regierung im Februar ihren KI-Erlass veröffentlichte, prognostizierte sie, dass die KI „das Wachstum der US-Wirtschaft vorantreiben, unsere wirtschaftliche und nationale Sicherheit verbessern und unsere Lebensqualität erhöhen würde.“

Menschen sind nicht machtlos gegenüber KI

Beide Annahmen sind stark vereinfachend. KI ist nicht gut oder böse – sie ist lediglich der nächste Schritt in der Computer-Evolution. Wir können sie nutzen, um erstaunliche Dinge zu tun: Automatisierte Entscheidungen, Gesichts- und Stimmanalysen, Autos autonom fahren lassen. Nichtsdestotrotz ist es nur ein Hilfsmittel, entworfen, entwickelt und verwendet von Menschen. Ein weiterer Fehler bei diesen Annahmen? Sie gehen davon aus, dass Menschen machtlos gegen KI sind. Musk und andere deuten an: „KI wird uns entweder töten oder verhätscheln. Naja. Lasst uns auf Letzteres hoffen.“ Das ist keine hilfreiche Erzählung.

Letztes Jahr haben wir etwa erfahren, dass Amazon einen Einstellungsalgorithmus plant, der Männern gegenüber Frauen bevorzugt. Das war nicht deshalb so, weil der Code sich dafür entschieden hatte, frauenfeindlich zu sein. Der Grund war, dass der Code die historischen, diskriminierenden Einstellungspraktiken von Menschen erlernte. Tech-Unternehmen sind homogen: viele junge, weiße Männer. Wenn eine KI anhand der Lebensläufe vorhandener Mitarbeiter geschult wird, sucht sie nach mehr davon.

Es ist klar, dass menschliche Entscheidungen darüber, welche Daten zur Übung verwendet werden sollen oder welchen Regeln die Maschinen folgen, Einzelpersonen und der Gesellschaft schaden können. In dem Maße, dass KI zu einem allgegenwärtigen Teil unserer digitalen Welt wird, werden weitere Dinge schief gehen. Die Aufgabe wird darin bestehen, diese Technologie unter Berücksichtigung dieser Risiken verantwortungsbewusst zu gestalten, zu verwenden und zu steuern.

Wenige Unternehmen bestimmen Zukunft

Damit bleibt ein letztes zu diskutierendes Problem: Wir verlassen uns auf nur neun Unternehmen auf der ganzen Welt, um die Richtung der KI zu „lenken“. KI erfordert eine beträchtliche Rechenleistung und Trainingsdaten. Im Moment gibt es weniger als zehn Unternehmen – alles gewinnorientierte Firmen –, die beide Bestandteile aufweisen. Die Autorin Amy Webb nennt sie „The Big Nine“: Amazon, Google, Facebook, Tencent, Baidu, Alibaba, Microsoft, IBM und Apple. Darüber hinaus repräsentieren diese Unternehmen nur zwei Länder: USA und China.

Diese neun Unternehmen gestalten die Zukunft von KI: Wie sie trainiert wird, wie sie genutzt wird, wann sie eingesetzt wird. Aufgrund der übergroßen Rolle von KI in unserem Leben gestalten diese Unternehmen gleichzeitig auch die Zukunft der digitalen Gesellschaft. Sollten nicht demokratische Regierungen, die Zivilgesellschaft, Bildungseinrichtungen und kleinere Start-ups in anderen Regionen die Zukunft der digitalen Gesellschaft mitformen? Die Antwort ist, natürlich: Ja. Und damit anfangen können sie dadurch, dass sie die KI-Klischees gemeinsam ablegen und sich darauf konzentrieren, wie der Mensch die Dinge in eine bessere Richtung lenken kann.

Europa ist besonders gut aufgestellt, um diese Dynamik aufzubauen. Die EU hat bei der Umsetzung der Datenschutzgrundverordnung bereits einen globalen Standard für Privatsphäre und Nutzerrechte festgelegt. Sie hat sich auch dazu bekannt, die Macht der großen Technologieunternehmen in Schach zu halten, einschließlich der Bestrafung einiger von ihnen für wettbewerbswidriges Verhalten. Die Art von Höchststandards könnte unsere KI-Zukunft in eine bessere Richtung lenken.

Simple Erzählungen überwinden

Der jüngste Bericht der hochrangigen Expertengruppe der EU über die Leitlinie für eine vertrauenswürdige KI zeigt in die richtige Richtung – oder zumindest auf viele der richtigen Themen. Der Bericht schlägt Leitlinien vor, um Dinge wie menschliches Handeln, Privatsphäre, Transparenz und Vielfalt zu gewährleisten. Allerdings lässt er auch die Dinge auf sich beruhen und beschreibt nur einen lockeren ethischen Rahmen, der die KI-entwickelnden Unternehmen und Forscher leiten soll.

Doch es bedarf viel mehr. Wie die Internet-Bürgerbewegung „Access Now“ als Antwort auf den Bericht schrieb: „Die ‚vertrauenswürdige KI‘ hat drei grundlegende Komponenten: Sie sollte rechtmäßig, ethisch und robust sein. Während die Richtlinien für die vertrauenswürdige KI ausführlich über Ethik diskutieren, übersehen sie mindestens eine Schlüsselfrage in Bezug auf Robustheit und lassen die rechtliche Komponente völlig außer Acht“. Die bestehenden Datenschutz- und Menschenrechtsgesetze bilden einen Ausgangspunkt für diese Fragen. Von dort aus sollten wir weitermachen.

Damit kommen wir auf die Frage der Klischees zurück. Die Überwindung simpler Erzählungen über „Terminator“ oder eine ach so glänze Zukunft ist entscheidend, wenn wir wollen, dass das KI-gesteuerte Computerwesen wirklich zum Nutzen der Verbraucher eingesetzt wird. Stattdessen müssen wir uns mit den heiklen Fragen befassen, wie man eine Technologie entwickelt, die Menschen und ihre Daten gut behandelt. Und noch wichtiger ist, dass wir uns der Tatsache stellen müssen, dass wir zu viel Macht in zu wenigen Händen entstehen lassen, sowohl in der KI-Entwicklung als auch auf den Technologiemärkten im Allgemeinen. Das sind keine abstrakten Bedrohungen aus einem Science-Fiction – es sind reale und greifbare Themen, mit denen wir uns heute befassen können.

Mark Surman ist Geschäftsführer der Mozilla Foundation, welche als US-amerikanische Non-Profit-Organisation zur Unterstützung des Freie-Software-Projekts Mozilla ins Leben gerufen wurde. Auf der laufenden re:publica sprach er über Outsourcing von Ethik an Maschinen.

Lernen Sie Tagesspiegel Background kennen

Jetzt kostenlos lesen
Sie sind Background-Kunde und haben noch kein Passwort? Wenden Sie sich an unseren Support oder hier einloggen