„Wir wollen Deutschland und Europa zu einem führenden KI-Standort machen und so zur Sicherung der künftigen Wettbewerbsfähigkeit Deutschlands beitragen. (...) Unser Ziel ist eine verantwortungsvolle und gemeinwohlorientierte Entwicklung und Nutzung von KI.“ So definiert die Bundesregierung die obersten zwei Ziele ihrer KI-Strategie. Die Corona-Pandemie hat allerdings gezeigt, dass es aktuell eklatante Rückstände in der Digitalisierung der Behörden gibt. Wir müssen dringend jetzt handeln, um die Verwaltung in Bund, Ländern und Kommunen fit für die Zukunft zu machen.
Die öffentliche Verwaltung kann ihre Leistungen mit KI zielgerichteter und einfacher bereitstellen. Gleichzeitig muss die dafür verwendete Technologie nicht nur leistungsfähig sein, sondern auch noch hohen Anforderungen an Datenschutz und Vertrauenswürdigkeit genügen. Denn wenn Bürger*innen der KI nicht vertrauen, mit ihren persönlichen Daten wirklich sorgsam umzugehen, hat sie keine Zukunft. Deshalb ist Datenschutz auch abseits der rechtlichen Aspekte ein zentraler Punkt.
Hochzeit von Datenschutz und KI
Bei den bislang gängigen zentralen KI-Verfahren wird meist erst nachträglich umständlich und oft auch nicht zufriedenstellend versucht, Datenschutz zu berücksichtigen. Bislang benötigt man große Mengen an Daten, die von unterschiedlichen Endgeräten an einem zentralen Ort gesammelt werden, um die Algorithmen zu trainieren. Es gilt die (vereinfachte) Devise: je mehr Daten, desto besser die KI. Je mehr Daten aber zentral gesammelt werden, desto größer sind auch die Risiken für die Privatsphäre. Willkommen zum KI-Privatsphärendilemma.
Neue technologische Ansätze können dieses Dilemma aufzulösen, indem sie den Schutz der digitalen Privatsphäre gleich von Beginn an mitdenken und einbauen – und dazu einen dezentralen Ansatz nutzen. Das sogenannte Masked Federated Learning (maskiertes föderiertes Lernen) ist solch eine Technologie. Die Rohdaten bleiben hier stets dort, wo sie entstehen – auf den Endgeräten der Nutzer*innen. Sie trainieren dort lokale KI-Modelle, die verschlüsselt zu einem globalen Modell aggregiert und zurückgespielt werden. So entsteht eine Form des kollaborativen Lernens. Die personenbezogenen Rohdaten verlassen dabei zu keinem Zeitpunkt die Endgeräte.
Durch diese Kombination an lokalem Lernen und Verschlüsselung können DSGVO-konforme, effiziente und leistungsfähige Algorithmen trainiert werden, die hoch skalierbar und gleichzeitig auch noch resilienter gegen potenzielle Angriffe sind.
Nach der Pandemie ist vor der Pandemie
Das volle Potenzial datenschutzfreundlicher KI verdeutlicht sich an einem konkreten Beispiel mit aktueller und langfristiger Relevanz: das öffentliche Gesundheitswesen und der Infektionsschutz. Experten warnen bereits, dass wir in eine Ära der Pandemien eingetreten sind und diese zukünftig häufiger auftreten und dabei schneller sowie tödlicher verlaufen. Deshalb sollten wir uns bereits heute auf zukünftige Pandemien vorbereiten.
Denk- und machbar ist zum Beispiel der Einsatz von KI, um individuelle und kollektive Infektionsrisiken abzuschätzen und einzudämmen. Einzelpersonen könnten ihre persönlichen Daten zu ihrer Gesundheit, Alter, Kontakte mit (potenziell) infizierten Personen etc. in eine App eingeben, die auf föderiertem Lernen basiert. Mit diesen Daten ermittelt die App zum einen das individuelle Gesundheitsrisiko für die Einzelpersonen. Da die KI-Modelle verschlüsselt voneinander lernen, aktualisieren sich auch die individuellen Einschätzungen kontinuierlich. Zum anderen kann die Erkenntnis aus vielen Einzeleinschätzungen durch verschlüsselte KI-Modelle gebündelt werden, sodass wiederum Gesundheitsämter besser abschätzen können, welche Maßnahmen sinnvoll sind. Tauchen neue Mutationen auf, gibt es neue wissenschaftliche Erkenntnisse zu Risikofaktoren oder ähnlichem, können diese in die Smartphone-Apps und an die Ämter zurückgespielt werden, sodass die Warnungen stets aktuell sind.
Der Clou an dieser Kombination aus geräte- und silo-übergreifenden Anwendungen: Einzelpersonen, Gesundheitsämter und damit auch die Gesellschaft als Ganzes können von stets aktuellen Erkenntnissen profitieren, bessere evidenzbasierte Entscheidungen treffen und sich selbst und andere umfassender schützen – und dies, ohne dass die personenbezogenen Rohdaten geteilt werden.
Öffentliche Sicherheit mit Privatsphärenschutz
Datenschutzfreundliches föderiertes Lernen könnte auch für die öffentliche Sicherheit eingesetzt werden – zum Beispiel bei der Strafverfolgung von Cyber-Kriminalität wie Identitätsdiebstahl oder Geldwäsche. Hier müssen Ermittler*innen oftmals aus einer enormen Datenfülle auffällige Muster herausfiltern. KI kann helfen, diese Datenmengen automatisiert zu analysieren und zu klassifizieren – und das, ohne die hochsensiblen Rohdaten zwischen den Behörden zu teilen. Stattdessen würde nur das Erfahrungswissen in der Klassifikation von Information ausgetauscht. Die Sicherheitsbehörden könnten so gerade bei Straftaten, in denen verschiedene Behörden involviert sind, effizienter ermitteln. Föderiertes Lernen kann so den Konflikt zwischen Erkenntnisgewinn und Datenschutz auflösen.
Dezentrale,
datenschutzfreundliche Technologien haben ein großes Potenzial. KI kann auch in
sensiblen Bereichen der öffentlichen Daseinsvorsorge eingesetzt werden, ohne
ein Risiko für den Datenschutz zu bedeuten. Die neuen technologischen Lösungsansätze
können uns helfen, die KI-Strategie der Bundesregierung umzusetzen, die
Effizienz zu steigern und das Vertrauen der Bürger*innen in die Politik zu stärken.
Datenschutzfreundliche, leistungsfähige KI kann so zu einem EU-Modell zur
verantwortungsvollen Technologienutzung werden.
Anhand der Beispiele
des Gesundheitswesens und der öffentlichen Sicherheit haben die Autoren die
Möglichkeiten des Einsatzes föderierten Lernens im öffentlichen Bereich näher
untersucht und hierzu ein Papier veröffentlicht.
Michael Huth ist Mitgründer und Chief Research Officer von Xayn, als Professor lehrt er seit 2001 Computer Science am Imperial College London. Seine Spezialgebiete sind Cybersecurity sowie Datenschutz beim Machine Learning.
Martin Schallbruch ist Direktor des Digital Society Institute der ESMT Berlin und Lehrbeauftragter am Karlsruher Institut für Technologie. Zuvor war er u. a. Leiter der Abteilung Informationstechnik, Digitale Gesellschaft und Cybersicherheit im Bundesministerium des Innern.