Künstliche Intelligenz ist nicht die Zukunft der Datenverarbeitung, sie ist die Gegenwart. Fakt ist, dass sie bereits in verschiedenen Branchen eingesetzt wird – von der Betrugsprävention über Chatbots und Fahrzeugsicherheit bis hin zu personalisierten Einkaufsempfehlungen. Angesichts der Warnung von Tech-Mogulen vor dem Zerstörungspotenzial der KI und der Notwendigkeit staatlicher Regulierung werden die Gesetzgeber:innen jedoch hellhörig.
Aber welche Form sollten risikobasierte Unternehmensführung und staatliche Regulierung haben? Wie können sich Organisationen gegen Bedrohungsakteur:innen schützen, die versuchen, die Macht der KI zu missbrauchen? Eine positive Entwicklung wäre es, KI-Modelle, Inputs und Outputs, mit Identitäten zu versehen – so wie dies heute bei Geräten, Diensten und Algorithmen der Fall ist. Wenn Unternehmen heute Governance und Schutz einbauen, können sie sicherstellen, dass sie für die Zukunft besser gerüstet sind. Dieser fortschrittliche Ansatz könnte dazu beitragen, die Zuverlässigkeit und Sicherheit zu erhöhen und Unternehmen vor Cyberangriffen zu schützen. Zudem könnten so Entwickler zur Rechenschaft gezogen und bei Bedarf ein Kill Switch für KI bereitgestellt werden.
Der KI-Regulierungszug setzt sich in Bewegung
Mit der zunehmenden Integration von KI in Geschäftsprozesse wird sie zwangsläufig auch zu einem immer attraktiveren Ziel für Angreifer:innen. Eine aufkommende Bedrohung besteht darin, dass böswillige Akteur:innen die Möglichkeiten der KI vergiften, indem sie beispielsweise die Entscheidungen eines Modells beeinflussen. Das Zentrum für KI-Sicherheit hat bereits eine lange Liste potenzieller gesellschaftlicher Risiken erstellt, auch wenn einige davon unmittelbarer sind als andere.
Regierungen weltweit befassen sich mit der Frage, wie sie die Entwicklung und den Einsatz der Technologie steuern können, um Missbrauch oder versehentlichen Missbrauch zu vermeiden. Sogar die G7 sprechen darüber. Das Weiße Haus versucht, einige Regeln festzulegen, um die Rechte des Einzelnen zu schützen und eine verantwortungsvolle Entwicklung und Nutzung zu gewährleisten. Vorreiter bei der Regulierung ist jedoch die EU. Ihre Vorschläge für ein „KI-Gesetz“ wurden vor kurzem von den Gesetzgeber:innen genehmigt. Dabei sind neue Haftungsregeln in Arbeit, die denjenigen, die Schäden durch KI erleiden, die Entschädigung erleichtern sollen.
Die EU erkennt die Identität von KI stillschweigend an
Das Gesetz des Aristoteles besagt, dass etwas, das existiert, auch eine Identität hat. Die von der EU vorgeschlagenen neuen Vorschriften für KI scheinen in diese Richtung zu gehen. Die EU skizziert einen risikobasierten Ansatz für KI-Systeme, wonach solche, die als inakzeptables Risiko eingestuft werden, verboten sind, und solche, die als hohes Risiko eingestuft werden, ein mehrstufiges Bewertungs- und Registrierungssystem durchlaufen müssen, bevor sie zugelassen werden können.
Das bedeutet, dass ein einmal entwickeltes KI-Modell einem Test unterzogen werden muss, um sicherzustellen, dass es mit den einschlägigen KI-Vorschriften übereinstimmt. Außerdem muss es zertifiziert werden, damit es registriert werden kann. Anschließend muss eine Konformitätserklärung unterzeichnet werden, bevor das KI-Modell mit einer CE-Kennzeichnung versehen und auf den Markt gebracht werden kann.
Diese Vorgehensweise würde bedeuten, dass jedes KI-Modell oder -Produkt über eine eigene Identität verfügt. Das kann in einem System festgelegt werden, mit dem das KI-Modell seine Kommunikation mit anderen Assets und die erzeugten Ergebnisse authentifizieren kann. Auf diese Weise könnte die IT-Welt feststellen, ob das Modell zertifiziert wurde, ob es gut oder schlecht ist und ob Änderungen vorgenommen wurden. Ebenso lässt sich autorisieren und authentifizieren, mit welchen anderen Systemen sich die KI verbinden und kommunizieren kann, auf welche anderen Systeme sie zurückgreift, und die Vertrauenskette (Chain of Trust), die zu einer bestimmten Entscheidung oder Ausgabe führt.
Letzteres wird besonders wichtig sein, wenn es um die Behebung und Rückverfolgbarkeit geht, da IT-Teams in der Lage sein müssen, alle Aktionen, die ein KI-Modell im Laufe der Zeit durchgeführt hat, zurückzuverfolgen. Damit lässt sich erklären, wie es zu einem bestimmten Ergebnis gekommen ist – oder im Falle einer böswilligen Akteur:in, die die KI vergiftet hat, muss nachvollziehbar sein, was diese Akteur:in getan hat, während die KI kompromittiert war. Aus all diesen Gründen ist die Identität erforderlich.
Ein Kill Switch-Ansatz
Unter einem Kill Switch sind eine Reihe von zusammenhängenden Identitäten zu verstehen, die zusammenarbeiten. Mit jedem Modell könnten Tausende von Maschinenidentitäten verbunden sein, die jeden Schritt des Prozesses absichern, um unbefugten Zugriff und böswillige Manipulationen zu verhindern – von den Eingaben, mit denen das Modell trainiert wird, über das Modell selbst bis hin zu seinen Ergebnissen. Dabei könnte es sich um eine Mischung aus Code-Signatur-Maschinenidentitäten zur Verifizierung der Ergebnisse sowie TLS- und SPIFFE-Maschinenidentitäten zum Schutz der Kommunikation mit anderen Maschinen und Cloud-nativen Diensten und KI-Eingaben handeln. Die Modelle müssen in jeder Phase geschützt werden – sowohl beim Training als auch bei der Nutzung. Das bedeutet, dass jede Maschine während jedes Prozesses eine Identität benötigt, um autorisierten Zugriff und Manipulation zu verhindern.
Sollten KI-Systeme aus dem Ruder laufen und zu einer ernsthaften Bedrohung für die Menschheit werden, wie einige führende Vertreter:innen der Branche gewarnt haben, könnten ihre Identitäten als De-facto-Kill-Switch verwendet werden. Der Entzug einer Identität ist vergleichbar mit dem Entzug eines Reisepasses und erschwert die Arbeit der betreffenden Einheit erheblich. Ein solcher Kill Switch würde den Einsatz der KI unterbinden. Er könnte sie daran hindern, mit einem bestimmten Dienst zu kommunizieren und sie schützen, indem er sie abschaltet, wenn sie kompromittiert worden ist. Außerdem müsste die KI alles andere, was in der vom KI-Modell erzeugten Abhängigkeitsstruktur als gefährlich eingestuft wird, abschalten. An dieser Stelle wird die identitätsbasierte Prüfbarkeit und Rückverfolgbarkeit wichtig.
KI durch Identitätsmanagement rechenschaftspflichtig machen
Während Regierungen auf der ganzen Welt mit der Regulierung einer immer einflussreicheren und wichtigeren Technologie konfrontiert sind, hat keine Regierung die Möglichkeit eines KI-Identitätsmanagements in Erwägung gezogen. Doch die EU-Verordnung, die bei weitem am ausgereiftesten ist, besagt, dass jedes Modell genehmigt und registriert werden muss – woraus natürlich folgt, dass jedes Modell seine eigene Identität hat. Damit besteht die Möglichkeit, einen Rahmen im Stil der Maschinenidentität zu schaffen, um die Sicherheit in diesem aufstrebenden Bereich zu gewährleisten.
Fazit
Es gibt noch viel zu verbessern. Aber die Zuweisung einer eindeutigen Identität für jede KI würde die Rechenschaftspflicht der Entwickler:innen erhöhen und eine größere Verantwortung fördern, was einer böswilligen Nutzung entgegenwirkt. Die Maschinenidentität ist nicht nur etwas, das dem Schutz von Unternehmen in der Zukunft dient, sondern auch ein messbarer Erfolg für die Gegenwart. Außerdem könnte es die Sicherheit und das Vertrauen in eine Technologie stärken, der bisher beide Aspekte fehlten. Es ist an der Zeit, dass die Aufsichtsbehörden darüber nachdenken, wie der KI eine Identität zugewiesen werden kann.
Kevin Bocek ist Vizepräsident Ecosystem & Community beim Identitätsmanagement-Anbieter Venafi