Der Dschinn ist aus der Flasche. Seitdem generative KI-Tools auf Basis von Large-Language-Modellen in der Breite verfügbar sind, werden sie auch von Cyberkriminellen genutzt. Über die Frage, in welchem Umfang KI-basierte Angriffe erfolgen, wird viel spekuliert – konkret messbar sind die neuen Social-Engineering-Attacken bislang kaum. Als Verteidiger müssen wir uns damit begnügen, indirekt abzuleiten hinter welcher Phishing-Mail ein KI-Tool stehen könnte. Denn deren Absender machen kaum noch Fehler: Die neuen Phishing-Mails verwenden ausgefeilte linguistische Techniken, arbeiten mit realem Kontext und perfekter Zeichensetzung. In dieser Form schwimmen sie im Strom valider Geschäfts-E-Mails und lassen sich immer schwieriger detektieren.
Seit dem Marktstart von ChatGPT beobachten wir allerdings zwei Tendenzen, die auf den Einsatz von KI hindeuten. Zum einen ist ein Anstieg von „Novel Social Engineering“ erkennbar, also von bestätigten bösartigen Mails in hoher linguistischer Güte. Zum anderen hat auch die Themenvielfalt, mit der Phishing-Mails locken, deutlich zugenommen. Neue Themencluster für Scams und eine komplexere Sprache lassen darauf schließen, dass sich Angreifer an den Möglichkeiten von KI-Tools bedienen. Zur Verdeutlichung: Aktuelle Analysen bei unseren Kunden zeigen, dass sich die Anzahl von neuartigen Social-Engineering-Angriffen seit der Verfügbarkeit von ChatGPT um 135 Prozent erhöht hat. Doch Vorsicht: Korrelation bedeutet in diesem Fall noch nicht automatisch Kausalität.
Wir müssen jedoch davon ausgehen, dass KI-Tools Angreifenden tendenziell helfen, einen höheren Return on Investment zu erzielen, schneller anzugreifen und mehr Opfer gleichzeitig zu erreichen. Indem sie weniger sprachliche und technische Skills für einen professionellen Angriff erfordern, senken sie zudem die Eintrittsschwelle für Gelegenheitshacker.
Die Verteidigung wankt
Diese Tendenzen haben zwei grundlegende Auswirkungen auf die künftige Cyberabwehr. Erstens: Es lohnt sich immer weniger, Menschen darin zu schulen, diese Angriffe zu erkennen. Bislang haben wir Mitarbeitende auf Reflexe trainiert, sie sensibilisiert, sprachliche Unregelmäßigkeiten, falsche Rechtschreibung oder Grammatik in Mails zu erkennen und diese als Phishing-Versuch wahrzunehmen. Eine Studie von Darktrace aus dem März zeigt, dass dieses Training durchaus erfolgreich war. So erkennen mittlerweile sechs von zehn Mitarbeitenden schlechte Rechtschreibung und Grammatik als Indikator für einen Angriffsversuch.
Es wäre allerdings unfair, diese Fähigkeit auch künftig zu erwarten, wenn ein KI-gesteuerter Inhaltsgenerator bösartige Mails erzeugt, die linguistisch fehlerfrei sind und authentisch wirken. Letztendlich müssen Unternehmen überdenken, wie viel Gewicht sie künftig auf die menschliche Verteidigung im Vergleich zur Technologie legen wollen. Wir können die Aufgabe, sehr gezielte und praktisch kaum identifizierbare Bedrohungen zu erkennen, nicht allein auf die Mitarbeitenden abwälzen. Vielmehr muss Technologie eingesetzt werden, die menschliche Teams als Teil eines umfassenderen „Defense-in-Depth“-Ansatzes ergänzt und aufwertet.
Zweitens: Der Einsatz von KI-Tools wird seine Spuren auch im Bereich der technologiebasierten Cyberabwehr hinterlassen. Seit Jahren spielen Angreifende und Verteidigung Katz und Maus: Jeder neue Angriffsvektor muss unmittelbar durch eine neue technische Abwehrmethode beantwortet werden. So rennen die Cyberverteidigung der Kreativität böswilliger Akteure kontinuierlich hinterher. KI-gesteuerte Social-Engineering-Angriffe werden sich in dieser Weise nur bedingt aufhalten lassen. Technisch perfektioniert, entziehen sie sich weitgehend der Detektion.
Mit traditionellen Methoden ist dem bisherigen „Rat Race“ also kaum noch beizukommen. Ein neuer Ansatz ist nötig, um KI-Angriffen zu begegnen. Und dieser findet sich ebenfalls in der KI: Die eigentliche Stärke fortschrittlicher Phishing-Angriffe, ihre sprachliche Perfektion, liefert zugleich auch den Hebel für Schutzmaßnahmen.
Die Kunst der Fehler
Jede Form des Informationsaustauschs innerhalb der Belegschaft eines Unternehmens basiert auf einem individuellen Verhältnis zwischen Sender und Empfänger. Kommuniziert ein Mitarbeitender mit einem Kollegen über eine Mail, so trägt diese bestimmte, unverwechselbare Merkmale. Das können Nuancen im Schreibstil, der Sprache oder dem Sentiment sein. Eine KI für die Phishing-Abwehr lernt und analysiert diese normalen Kommunikationsmuster – schreibt ein Mitarbeitender etwa betont aggressiv oder nutzt er eine bestimmte Satzlänge. Auch wiederkehrende Fehler in der Interpunktion oder Rechtschreibung geben Hinweise auf die Authentizität eines Autors oder einer Autorin. Durch ein tiefgreifendes Verständnis des Unternehmens und der Interaktionen der einzelnen Mitarbeitenden kann eine selbstlernende KI für jede E-Mail bestimmen, ob sie verdächtig oder legitim ist. Ist sie in der Lage, diese feinen Nuancen zu erkennen, wird sie immer stärker sein als die KI der Angreifer, die ausschließlich über global verfügbare Daten trainiert wurde.
Eine KI-basierte Phishing-Abwehr bezieht hunderte solcher Metriken mit ein und ist durch die Menge der Datenpunkte in der Lage, schon nach wenigen Tagen des Einlernens, bösartige Mails zuverlässig zu verstehen. Anstatt also zu versuchen, einen kriminellen Akteur und seine Angriffsmuster zu verstehen, baut diese Form der Verteidigung darauf, mehr über die reale Art der Kommunikation im Unternehmen zu erfahren.
Insbesondere zur Abwehr vor Spear-Phishing auf Entscheidungsträger liefert dieser Ansatz ein gutes Schutzniveau. Je mehr Informationen über ein potenzielles Opfer im Internet oder Social Web verfügbar sind, desto präziser werden auch die KI-Attacken. Erst eine Validierung des E-Mail-Verkehrs auf Basis individueller Kommunikationsmuster ist in der Lage, Angriffsversuche wirksam zu unterbinden.
Am Anfang der Automatisierung
Wir stehen am Anfang einer Entwicklung von KI-basierten Angriffen, deren Verlauf nur ansatzweise vorgezeichnet ist. Der sprunghaft gestiegene Einsatz von Large-Language-Modellen für Attacken lässt darauf schließen, dass die Eintrittsschwelle für professionelle Kampagnen tendenziell weiter sinken wird. Der nächste Entwicklungsschritt ist im Bereich der Automatisierung zu erwarten. Tools wie AutoGPT weisen in diese Richtung, wenngleich sie bislang noch fehleranfällig sind. Unternehmen werden sich mit diesen Entwicklungen stellen und zügig KI-basierte Abwehrstrategien umsetzen müssen. Denn klar ist auch: Der Dschinn wird nicht mehr in die Flasche zurückkehren.
Max Heinemeyer ist Chief Product Officer von Darktrace, einem Anbieter von Cybersicherheitsprodukten.