Manchmal reichen wenige Worte, um große Konflikte auszulösen. Dass Online-Desinformationen zu Offline-Verbrechen führen können, haben viele erschreckende Einzelfälle, wie auch sich abzeichnende Strukturen, im vergangenen Jahrzehnt gezeigt. Existierende Konflikte sollen weiter angeheizt, die Gesellschaft weiter gespalten und das Vertrauen in staatliche Institutionen untergraben werden. Wir wissen, dass die vorsätzliche Verbreitung von falschen oder irreführenden Nachrichten über Soziale Medien großen Schaden anrichten kann und auch soll. Wie groß dieser politische und gesellschaftliche Schaden tatsächlich ist, bleibt zunächst unklar.
Obwohl staatlicherseits viele Initiativen gestartet und gefördert, Kompetenzen aufgebaut und Zuständigkeiten verteilt wurden, zeigt sich, dass wir weder ein einheitliches Verständnis vom Desinformations-Phänomen haben, noch, dass wir die Art des Einflusses auf unseren Meinungsbildungsprozess und unsere Handlungen in der physischen Welt in Zusammenhang bringen können. Wenn wir ein einheitliches Verständnis schaffen und dezidierter nachvollziehen wollen, welche Techniken der Manipulation von Meinungsbildungsprozessen wie funktionieren und welche Auswirkungen sie in der physischen Welt haben, braucht es drei Bausteine:
Eine übergeordnete Struktur die die Maßnahmen, Initiativen und Akteur:innen abbilden und strategisch orchestrieren kann. Eine ganzheitliche Betrachtung unter Einbeziehung hybrider Taktiken, die Desinformationen im Zusammenspiel mit analogen und digitalen Operationen verwenden (Background berichtete). Und schließlich interdisziplinäre Analysen, die beispielsweise verhaltens- und neurowissenschaftliche Erkenntnisse einfließen lassen.
Soziale Medien als Vektoren von Desinformationskampagnen
Zur Täuschung oder Beeinflussung vorsätzlich erstellte und verbreitete falsche oder irreführende Informationen, werden von der Bundesregierung als Desinformationen bezeichnet. Der wesentliche Unterschied zu einer Falsch- oder Fehlinformation ist somit der Absichtsgedanke. Hinter Desinformationen steht eine gezielte Täuschungsabsicht.
Desinformationskampagnen, die über (aber nicht nur) Social-Media-Plattformen lanciert werden, sind kostengünstig, skalierbar und die Urheberschaft leicht abzustreiten. Vor allem staatliche Stellen aus dem Ausland haben die Ressourcen, das Know-how und die Techniken, Einfluss auf den öffentlichen Diskurs zu nehmen und im „Kampf der Narrative“, bestimmte Botschaften, konstruierte Zusammenhänge oder bewusst falsche Informationen wiederholt zu platzieren.
Wie Desinformationen als Brandbeschleuniger in bereits schwellenden Konflikten wirken können, zeigt sich am Beispiel der Katar-Krise in 2017. Als Reaktion auf ein angeblich provokatives Zitat des amtierenden katarischen Emirs Thamim bin Hamad, lösten Saudi-Arabien, die Vereinigten Arabischen Emirate, Ägypten und Bahrain die schwerste diplomatische Krise der vergangenen 30 Jahre in der Region aus. Der Emir hatte in den staatlichen Medien Katars angeblich die aggressive Haltung verschiedener Staaten gegenüber Iran kritisiert und das Land als eine stabilisierende regionale Macht bezeichnet. Zudem nannte er die Hamas angeblich einen legitimen Vertreter palästinensischer Interessen.
Daraufhin verhängten die vier Länder eine Wirtschaftsblockade, sperrten ihren Luftraum und zogen ihre Botschafter aus Katar ab. Die Beteuerungen der katarischen Regierung und Medien, dass es sich um erfundene Zitate handeln würde, fanden keinen Anklang. Eine Untersuchung des FBI kam zu dem Schluss, dass es sich um eine Desinformationskampagne russischer Hacker:innen gehandelt hatte, die falsche Informationen in staatlichen Medien gezielt platzierten, um etwa Verbündete der Vereinigten Staaten zu schwächen.
Auch wenn es wissenschaftlich beziehungsweise technisch nicht einfach ist, die Wirkungsmechanismen zu erfassen oder sie messbar zu machen, geht es den Akteur:innen auch darum, Narrative so lange zu wiederholen und die Zivilbevölkerung mit irreführenden Themen zu reizen, bis etwas haften bleibt. Wie das alles im Detail funktioniert, wird nur fragmentiert, in unterschiedlichen staatlichen und zivilgesellschaftlichen Projekten und Initiativen erfasst und untersucht.
Desinformationen als Komponente hybrider Bedrohungen
Die Bundeswehr hat beispielsweise in 2018 ein Projekt mit dem Namen „Propaganda Awareness“ gestartet, das sich mit der Recherche, Analyse und Abwehr von Desinformationen beschäftigt. Ziel ist die Resilienz gegen Propaganda, die sich gegen die Bundeswehr in den Einsatzgebieten richtet, zu stärken. Dass Propaganda im Kontext und auch im Vorfeld militärscher Konflikte stark genutzt wird, ist nicht erst seit dem Angriffskrieg Russlands gegen die Ukraine bekannt. In den vergangenen Jahren wurden immer wieder Desinformationen über Soziale Medien, wie beispielsweise während des Manövers Defender-Europe 2020, von wahrscheinlich russischen Stellen lanciert, um die Bundeswehr und ihre Verbündeten zu diskreditieren. Bei russischen Militärmanövern in der Vergangenheit soll der Einsatz von Desinformationen gezielt genutzt worden sein (Background berichtete).
Eine hybride Bedrohungslage, die aufgrund der Vermengung zwischen Operationen in Kriegs- und Friedenszeiten so genannt wird, wurde bereits 2016 im Weißbuch des Bundesministeriums der Verteidigung (BMVg) als zukünftige sicherheitspolitische Herausforderung identifiziert. Darin wurde angemahnt, dass eine Grundvoraussetzung für die eigene Reaktions- und Handlungsfähigkeit, die Implementierung eines geeigneten Frühwarnsystems ist. Dieses solle auf einem präzisen und flexiblen Werkzeugkasten basieren, der ausgeprägte Analysefähigkeiten beinhaltet. Welche Analysefähigkeiten damit im Speziellen gemeint sind und wie diese in Kombination verwendet werden sollen, ist nicht ganz eindeutig.
Notwendige Maßnahmen um Wirkungszusammenhänge zu erfassen
Die Bemühung, Desinformationen als Teil hybrider Taktiken besser identifizieren und daraus effektivere und effizientere Handlungsoptionen ableiten zu können, sind sowohl auf nationaler wie auch auf europäischer Ebene in den vergangenen Jahren deutlich sichtbar geworden. Die EU hat unlängst etwa den Aufbau eines Analysezentrums angekündigt (Background berichtete). Gleichwohl müssen drei Punkte berücksichtigt werden, aus denen sich ein Handlungsdruck ableitet.
Übergeordnete Struktur
Erstens: Es fehlt eine übergeordnete Struktur, die die Maßnahmen, Initiativen und Akteur:innen sichtbar abbilden und koordinieren beziehungsweise orchestrieren kann. Ähnlich wie im Bereich der Cybersicherheit, ist in den vergangenen Jahren ein Potpourri an Maßnahmen entstanden, die auf unterschiedliche Art und Weise mit Desinformationen in Verbindung stehen. Hier fehlt es an Struktur und Übersicht, wer, in welcher Art und Weise, mit welchen Befugnissen und in welchem Umfang, wofür zuständig ist. Sowohl horizontal (institutionelle Zuständigkeitsebene) als auch vertikal (inhaltliche Kompetenzebene).
Dieser Umstand ist auch der Tatsache geschuldet, dass eine einheitliche Definition beziehungsweise Begrifflichkeit nach wie vor fehlt. Die Verwendung verschiedener Buzzwords wie etwa hybride Taktiken/Kriegsführung, Fake News, psychologische Kriegsführung, Deepfakes, Propaganda um nur einige zu nennen, führt gelegentlich zu großer Verwirrung, da jeweils verschiedene Facetten betrachtet werden und nicht immer eindeutig hervorgeht, wo die Schwerpunkte liegen.
Die EU hat dieses Problem erkannt und erste Schritte unternommen, eine Einheitlichkeit herzustellen. In einem gemeinsamen Konzeptpapier zur systematischen Kategorisierung von Desinformationen, schreiben die Cybersicherheitsbehörde der EU, Enisa, und der Europäische Auswärtige Dienst (EAD), dass durch die aktuelle Vielzahl von Begriffen und Konzepten wirksame Maßnahmen erschwert würden und eine große Verwirrung darüber herrsche, welche Aspekte und Phänomene mit Desinformationen tatsächlich andressiert werden (Background berichtete). In dem Konzeptpapier steht nicht die Überprüfung des Wahrheitsgehaltes einer Nachricht im Mittelpunkt, sondern, ob es sich bei der Verbreitung von Nachrichten, um ein gezieltes manipulatives Verhalten handelt. Folglich sprechen die beiden EU-Organisationen von Foreign Information Manipulation and Interference (FIMI), also von Falschinformationen die absichtlich und gezielt von oder unterstützt durch staatliche Akteur:innen erstellt und vertrieben werden.
Ganzheitliche Betrachtung
Natascha Zowislo-Grünewald, Professorin für Kommunikation an der Universität der Bundeswehr in München, sagte in einem Interview mit Tagesspiegel Background im Oktober 2022, dass wir aktuell keine Möglichkeiten haben, den Einfluss von Russland auf den Informationsraum strukturiert darzustellen. Dies kann zu einer großen Schwächung unserer Reaktionsmöglichkeiten führen, was mich zum zweiten Punkt bringt: Die Synchronisation von analogen Angriffen wie beispielsweise militärischen Operationen mit Cyberangriffen auf Kritische Infrastrukturen und die Verbreitung von Desinformationen, können eine verheerende Wirkung entfalten. Bisher ist diese Kombination nur vereinzelt erfolgt und scheint nicht strategisch koordiniert zu sein. Zumindest was bisher öffentlich bekannt ist.
Orchestrierte Kampagnen, die verschiedene Elemente einer hybriden Operation vereinen, müssen zunächst als solche erkannt werden, um entsprechend koordinierte Gegenmaßnahmen zur Abmilderung oder Unterbindung derer einleiten zu können.
Das von den beiden EU-Organisationen vorgelegte Konzeptpapier blickt bereits in diese Richtung, jedoch eher mit dem Bestreben von der Methodik der Klassifizierung/Taxonomie von Cybervorfällen (betroffener Sektor, Schwere, Dauer, Einfluss, Täter:innen oder Motivation) zu profitieren. Es liegt jedoch auf der Hand, dass die Kombination dieser hybriden Elemente, strategische Vorteile im Operationsraum bieten und ein besonderes Augenmerk darauf gelegt werden sollte.
Interdisziplinäre Analyse
Und schließlich ist der dritte und letzte Punkt ein Aspekt, der bei der Betrachtung von Desinformationen häufig zu kurz kommt, die Psychologie des Menschen. Es wird viel über regulatorische und technische Gegenmaßnahmen gesprochen, aber weniger darüber, welche Auswirkungen Desinformationen auf Menschen tatsächlich haben. Vor diesem Hintergrund sollten interdisziplinäre Ansätze auch sozialpsychologische Einflüsse wie beispielsweise social proof (soziale Bewährtheit) oder moral outrage (moralische Empörung) berücksichtigen.
Menschen ahmen bewährtes Verhalten nach, da sie davon ausgehen, dass das Verhalten, das sie bei anderen wiederholt beobachten, in gewissen Situation richtig ist. Beim Prinzip der sozialen Bewährtheit spielen somit die Deutungshoheit und die Deutungsrichtung keine unerhebliche Rolle. Auf die Sozialen Medien übertragen bedeutet dies, dass Medienwahrheiten, die von einer scheinbaren großen Masse getragen werden (Mehrheitsmeinung), nicht ganz falsch sein können. Dieses Prinzip stützt sich auch auf neurowissenschaftliche Untersuchungen und sollte bei der Betrachtung des Meinungsbildungsprozesses berücksichtigt werden.
Selbiges gilt für die Erkenntnisse aus Beobachtungsstudien zum Phänomen der moralischen Empörung im Zusammenhang mit Sozialen Medien. Daraus geht etwa hervor, dass Empörungsäußerungen maßgeblich vom sozialen Feedback beeinflusst werden, was bedeutet, dass die Nutzer:innen aus positiven/erfolgreichen oder negativen Verstärkungselementen wie beispielsweise der Verwendung von Skandalwörtern wie „Schande“, „Zorn“, „Lüge“, lernen und diese ihre zukünftigen Empörungsäußerungen prägen. Die Empörung auf Sozialen Medien ist in Form von likes und shares quantifizierbar und skalierbar und senkt die Reizschwelle, im Vergleich zur analogen Welt, erheblich.
In den vergangenen Jahren wurden viele staatliche, privatwirtschaftliche und zivilgesellschaftliche Initiativen gestartet, um dem Phänomen der Desinformationen in Sozialen Medien mit unterschiedlichen Herangehensweisen und Schwerpunkten zu begegnen. Dabei wurden Fortschritte erzielt, um beispielsweise mit Hilfe von Faktenchecker:innen Desinformationen faktenbasiert zu entlarven (Debunking). Was fehlt, ist eine übergeordnete, interdisziplinäre, institutionelle Strategie, die Desinformationen als ein Element hybrider Bedrohungen beobachten, abbilden und in ein Lagebild einbetten kann.
Alexander Szanto ist Research Fellow am Brandenburgischen Institut für Gesellschaft und Sicherheit (BIGS) in Potsdam.
In unserer Reihe Perspektiven ordnen unsere Kolumnist:innen regelmäßig aktuelle Entwicklungen, Trends und Innovationen im Bereich Cybersicherheit ein. Zuletzt von Alexander Szanto erschienen: Wer ist digitale Souveränität und wenn ja, wie viele?