Erweiterte Suche

Cybersecurity

Standpunkte Wenn Hase und Igel auf KI setzen

Claudia Nemat, Vorständin für Technologie und Innovation bei der Deutschen Telekom
Claudia Nemat, Vorständin für Technologie und Innovation bei der Deutschen Telekom Foto: Deutsche Telekom

Die Möglichkeiten, die Künstliche Intelligenz bietet, werden sowohl von Cyberkriminellen als auch ihren Gegenspielern genutzt – und bringen beiden Seiten massive Effizienz- und Qualitätssteigerungen. Um die deutsche Wirtschaft darauf vorzubereiten und zu schützen, muss Deutschland zur „KI-Chancen-Republik“ werden, schreibt Claudia Nemat von der Deutschen Telekom. Was sie damit meint und woran die Deutsche Telekom an der Schnittstelle von KI und Cybersicherheit tüftelt.

von Claudia Nemat

veröffentlicht am 30.05.2024

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Unachtsamkeit, Missbrauch, gezielte Angriffe: Künstliche Intelligenz (KI) ist eine Herausforderung für die Cybersicherheit weltweit. Aber KI ist längst auch fester Bestandteil von Schutzmaßnahmen: bei der Analyse und Abwehr von Angriffen und bei der Entwicklung sicherer digitaler Angebote und Infrastrukturen. „Hase und Igel“ bleiben im altbekannten Wettlauf. Nur geht es jetzt darum, bei KI die Nase vorn zu haben. Wie uns das gelingen kann? Das möchte ich an einigen Beispielen zeigen.

Wer Software entwickelt, kommt um KI nicht herum

KI schreibt Artikel, E-Mails, Vorträge, Gedichte – und Programme. Laut einer Umfrage von Github lassen sich bereits 92 Prozent der US-Entwicklerinnen und -Entwickler von KI unterstützen. Und erledigen ihre Arbeit schneller. Im Durchschnitt in weniger als der Hälfte der Zeit.

Doch es gibt ein Problem: „Code-Leakage“. Wenn ich mit KI-Hilfe Code erstellen möchte, muss ich den Code, an dem ich arbeite, mit der KI teilen. Dabei kann ich mich auf eines nicht unbedingt verlassen: dass die Maschine diesen Code für sich behält.

Einmal eingetippt, könnte der Bot meinen Code an anderer Stelle ausplaudern. Oder Dritte lesen ihn im Netz mit. Cyberkriminelle und -Spione haben dann leichtes Spiel. Denn sie erhalten eine Blaupause von Teilen der Software-Architektur. So können sie mögliche Schwachstellen identifizieren. Und Schnittstellen oder Systeme angreifen.

KI kann Code-Leakage verhindern

Die Telekom Innovation Labs an der Ben-Gurion-Universität haben die Mechanismen und Muster von Code-Leakage analysiert. Basierend auf ihren Erkenntnissen haben sie eine Technologie entwickelt, die sich wie ein Kokon um den Eingabecode legt. Der Coding-Bot kann damit interagieren, ohne den tatsächlichen Software-Code weiterzugeben.

Dafür sorgt ein KI-Filter zwischen Entwickler und Coding-Bot. Dieser Filter verändert den Eingabecode im Prompt, dem Eingabebefehl. Und zwar so, dass der Filter keine Rückschlüsse auf den Originalcode und damit sensible Informationen zulässt. Weil die Filter-KI bestimmte Zeilen des Originalcodes löscht oder Parameter umbenennt. Der Vorteil: Der Produktivitätsgewinn bleibt weitestgehend erhalten. Die Maschine antwortet auf den ursprünglichen Eingabecode mit einer sinnvollen Antwort.

Prompt Injections können Bots austricksen

Ein anderes Beispiel betrifft Chatbots. Spätestens seit ChatGPT sind sie so verbreitet wie nie zuvor. Diese Bots unterstützen beispielsweise den Kundenservice. Und haben dort eine klar definierte Aufgabe. Spezielle Mechanismen sorgen dafür, dass die Bots nur in einem definierten Kontext agieren. Sie folgen Leitplanken im Dialog, die zu den gewünschten Antworten führen.

Die Sprachmodelle dahinter greifen allerdings auf eine breitere Datenbasis zurück. Daher könnte der Bot theoretisch auch in Gedichtform antworten. Seinen Rat als Kochrezept formulieren. Oder: Rabatte erfinden, beleidigen und Hasstiraden produzieren. Das soll natürlich nicht passieren – aber die KI kann durch geschicktes Prompting, also Arbeitsanweisungen, ausgetrickst werden. „Prompt Injection“ nennt sich diese Manipulation, die den Bot dazu bringt, die gelernten Regeln zu brechen. So ist es einem Studenten der TU München gelungen, einem bekannten Such-Bot die Anweisungen des Herstellers zu entlocken, indem er sich als Entwickler ausgab.

Eine mögliche Lösung: KI testet KI

Eine Unterhaltung zwischen zwei Chatbots kann eine Lösung für dieses Problem sein. Im Grunde eine clevere Idee: Ein KI-System wird von einem anderen KI-Agenten auf seine Leistungsfähigkeit getestet. Das Prinzip dahinter: „Penetration Testing“, ein Sicherheitstest für IT-Systeme, oder eben Anwendungen wie Chatbots.

Dafür haben die Expertinnen und Experten von Telekom Security eine KI-Plattform namens „Deemster“ entwickelt. Das Ziel: Sicherheitslücken finden. Bevor es andere tun. Täglich versuchen Teams bei der Telekom, in IT-Systeme einzudringen. Oder Bots zum Plaudern zu bringen – jetzt mit Hilfe von KI.

Das Besondere: Die KI-Agenten sind nicht deterministisch. So entstehen erstaunlich kreative Fragen an das Zielsystem. Und: Sie sind schnell. 400 Testgespräche führen die KI-Agenten in nur zwanzig Minuten. Eine weitere Skalierung ist möglich. So können wir KI-Anwendungen schneller und umfassender auf Schwachstellen prüfen.

KI steigert Spam

Früher war es wie in der Fabel vom Hasen und Igel: Den Wettlauf mit den Angreifern gewannen wir durch Cleverness. Heute werden die Hasen künstlich schlauer gemacht. Das gilt auch für Phishing, das Ausforschen von Zugangsdaten. Mit 54 Prozent die zweithäufigste Cyber-Bedrohung für Unternehmen. Generative KI wird dazu führen, dass Phishing-Mails qualitativ besser werden und quantitativ zunehmen.

Qualitativ, weil generative KI die Sprache in den Mails optimiert, sie besser in andere Sprachen übersetzt oder stilistische Fehler korrigiert. Auf den ersten Blick werden Phishing-Mails dann schwerer als Betrug zu erkennen sein. Quantitativ wird Phishing zunehmen, weil KI solche Mails schneller erstellt und individualisiert. Damit sind sie auch für Filtersysteme schwerer zu erkennen und auszusortieren. Schon heute sind mehr als 90 Prozent aller versendeten Mails vom Empfänger unerwünscht und werden nicht zugestellt. Die Spam-Flut nimmt perspektivisch zu.

Cyberabwehr setzt auf KI

Künstliche Intelligenz fordert unser bisheriges Verständnis von Cyberkriminalität heraus. 75 Prozent der Expertinnen und Experten sehen eine Zunahme der Angriffe – bedingt durch KI. Der Einsatz von KI führt zu veränderten Strategien, wie wir Angriffe erkennen und darauf reagieren. Analyse- und Erkennungssysteme leisten heute dank KI „Übermenschliches“.

Nehmen wir zum Beispiel statt der E-Mail-Flut die Anzahl der Alarme unserer „Honeypot“-Sensoren. So können wir Hackern auf die Finger schauen. Beobachten ist aber nur die halbe Miete. Mit KI analysieren wir die Angriffe. Ohne diese Technologie wäre das nicht möglich. Allein im Februar 2024 haben wir in der Spitze 60 Millionen Angriffe auf unsere Honeypot-Infrastruktur registriert – an einem einzigen Tag! Im Durchschnitt verzeichnen wir 30.000 Angriffsversuche pro Minute.

Laut Bitkom entsteht der deutschen Wirtschaft durch Cyberangriffe ein jährlicher Schaden von 148 Milliarden Euro. Trotzdem sind nur sieben Prozent der Unternehmen in Deutschland auf KI vorbereitet. Expertinnen und Experten beziffern die durchschnittlichen Einsparungen pro Datenleck durch KI und schnellerer Reaktionszeiten auf 1,8 Millionen Dollar.

Für unsere Analysen nutzen wir eine der größten Stärken der KI: die Mustererkennung. KI erkennt Anomalien, vergleicht Angriffe und stellt Zusammenhänge her. Besonders wichtig wird diese Fähigkeit bei sogenannten „Zero-Day-Attacken“. Angriffe, die neue Schwachstellen ausnutzen, bevor herkömmliche, regelbasierte Analysewerkzeuge sie finden. Dank KI tauchen sie schneller auf dem Radar auf. Das verbessert unsere Erkennungsrate von Anomalien. Und erhöht die Wirksamkeit von Sicherheitsmaßnahmen.

Deutschland muss eine KI-Chancen-Republik werden

KI darf kein blinder Fleck in der Sicherheitsarchitektur von Unternehmen sein. Es braucht ein wachsames Auge. Und Aufklärung über die Risiken und Chancen des eigenen KI-Einsatzes. Die Menschen in unseren Cybersecurity-Teams entwickeln Innovationen, um denen, die KI für Angriffe nutzen, einen Schritt voraus zu sein. Derzeit arbeiten unsere Sicherheitsexpertinnen und -experten an mehr als 30 KI-basierten Anwendungen. Insgesamt laufen bei der Deutschen Telekom über 400 KI-Projekte. Dabei geht es natürlich nicht nur um generative KI.

Eine Beratungsfirma hat ausgerechnet: Bis 2030 könnte KI unser Bruttoinlandsprodukt um 230 Milliarden Euro steigern. Denn: KI erhöht die Produktivität. Bringt mehr Zuverlässigkeit. Und bietet Qualitätsstandards. Auch in der Cybersicherheit. Unsere Antwort auf eine neue Qualität der Cyberkriminalität heißt: KI-Innovation. Deutschland muss zur KI-Chancen-Republik werden. Unsere Maxime lautet dabei: Technologie soll das Leben der Menschen besser machen – und sicherer. Sie muss sich dem Menschen anpassen – nicht umgekehrt. Wir müssen die Risiken der KI ernst nehmen und die Chancen jetzt nutzen.

Claudia Nemat ist Vorstandsmitglied Technologie und Innovation bei der Deutschen Telekom.

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen