KI-Unternehmen sind prinzipiell daran interessiert, viele Daten sammeln zu können, um damit die KI-Systeme zu trainieren und zu verbessern. Allerdings fehlt es in Europa an einheitlichen Regeln dafür, wie eine ausreichende Anonymisierung dieser Daten auszusehen hat. Das Unternehmen Vara beispielsweise nutzt Künstliche Intelligenz, um Brustkrebs frühzeitig zu erkennen. Um die KI darauf zu trainieren, den Krebs immer besser identifizieren zu können, braucht es echte Patientendaten. Da aber keine personenbezogenen Daten genutzt werden dürfen, muss Vara die Informationen zunächst anonymisieren.
Und genau hier beginnt das Problem: Weil es keine einheitlichen Regeln darüber gibt, ab wann ein Datensatz ausreichend anonymisiert oder pseudonymisiert wurde, herrscht große Unsicherheit. Jede Behörde stuft Güte der Anonymisierung anders sein. Es fehlt an Klarheit und an Rechtssicherheit. KI-Unternehmen werden dadurch massiv ausgebremst. Dies ist nur ein Beispiel, das plastisch zeigt, mit welcher Rechtsunsicherheit KI-Unternehmen in Deutschland derzeit oft kämpfen.
Innovation braucht einen klaren Rechtsrahmen
Denn während KI-Technologie viele
Anwendungen überhaupt erst ermöglicht, stellen sich dabei auch neue rechtliche Fragen
in Bezug auf die Qualitätsstandards oder die zugrunde liegenden ethischen
Implikationen.
Was KI-Unternehmen besonders dringend brauchen ist ein klar definierter
Rechtsrahmen. Nur so können sie sicherstellen, dass ihr Geschäftsmodell in Zukunft
weiterhin für den Markt zugelassen ist, und Risikokapitalgeber das Vertrauen gewinnen,
in die Geschäftsidee zu investieren.
Es ist daher ein wichtiger Schritt, dass die Europäische Kommission mit ihrem Weißbuch
den Grundstein gelegt hat, die bestehende Gesetzgebung anzupassen, sodass sowohl
den jüngsten als auch künftigen technologischen Entwicklungen im Bereich der
Künstlichen Intelligenz Rechnung getragen wird.
Auch ohne die bindenden Vorgaben der Gesetzgebung verpflichten sich hierzulande bereits zahlreiche KI-Unternehmen dazu sicherzustellen, dass ihre KI-Technologie im Einklang mit europäischen Werten und dem demokratischen Verständnis Anwendung findet. Aus diesem Beweggrund haben unsere Mitglieder Anfang 2019 die Eigeninitiative ergriffen und ein Qualitätssiegel entwickelt, das Unternehmen auszeichnet, die eine menschengerechte und menschenzentrierte Anwendung von KI gewährleisten.
Wir sehen aber auch, dass es keine leichte Aufgabe ist, einen regulatorischen Rahmen zu definieren, bei dem sich die Förderung von Innovation und die Sicherstellung von Qualitätsstandards die Waage halten. Denn gerade im Bereich der Künstlichen Intelligenz wird sich in den kommenden Jahren noch viel Neues entwickeln. Innovation in der Entwicklung und Anwendung können wir nur dann fördern, wenn die Regulierung von KI-Technologie flexibel genug ist, um auch den zukünftigen Fortschritt im Bereich der Künstlichen Intelligenz nicht auszubremsen. Dabei ist aus unserer Sicht falsch, KI generell als übergeordnete Technologie zu regulieren.
Regulierung muss sich nach Anwendungsfall richten
KI-Algorithmen sind nicht per se „gut“ oder „schlecht“, sondern von der Anwendung abhängig. Ein Algorithmus zur Bilderkennung lässt sich etwa einsetzen, um die Gesundheit von Nutzpflanzen zu überwachen und zielgerichtet zu düngen. Bilderkennung kommt auch bei einem autonomen Fahrzeug zum Einsatz und ermöglicht es dem Fahrzeug Straßenschildern oder Bewegungen zu erkennen und entsprechend zu reagieren. Tritt ein Fehler im Algorithmus auf, entsteht dem Landwirt höchstens ein ökonomischer Schaden; im Straßenverkehr kann ein Fehler jedoch im Ernstfall Menschenleben kosten. Die ethischen Implikationen sind also abhängig von dem spezifischen Anwendungsfall der KI-Technologie.
Das Beispiel zeigt: Es gibt Anwendungsfälle von KI-Technologie, die ein Risiko für Menschen, Tiere oder für die Gesellschaft und ihre demokratischen Werte darstellen können. Um dieses Risiko so gering wie möglich zu halten, sollten diese Anwendungsfälle einer geeigneten Regulierung unterworfen werden. Hier braucht es Qualitätsstandards, in besonders einschneidenden Fällen auch Zulassungsverfahren. Gleichzeitig sollten wir jedoch nicht vergessen, dass diese Beispiele nicht die Regel sind.
Verhältnismäßigkeit als Richtschnur
Wenn wir Anwendungsfälle, die kein potenzielles Risiko bergen, ebenso stark regulieren, laufen wir Gefahr, innovative Anwendungsfälle nicht implementieren zu können und dadurch im globalen Wettbewerb abgehängt zu werden. Die Verhältnismäßigkeit ist also entscheidend – das potenzielle Risiko eines Anwendungsfalles muss sich in der Regulierung widerspiegeln.
Verhältnismäßigkeit spielt auch eine entscheidende Rolle, wenn es um die Erwartungshaltung geht, die wir an KI-Anwendungen haben. Denn im Gegensatz zu klassischer Software liefern KI-Systeme selten Ergebnisse mit einer hundertprozentigen Genauigkeit. Aber auch Menschen machen bei ihren Entscheidungen statistisch messbare Fehler. Wichtig ist, dass die Fehlerrate von KI-Systemen niedriger ist als die von Menschen. Die menschliche Leistung sollte also unser Richtwert sein.
Start-ups nicht ausbremsen
Und letztlich spielt für uns Verhältnismäßigkeit auch bei der Größe des Unternehmens eine Rolle. Start-ups und KMU sind die Hauptantriebskräfte von KI-Innovation. Wir sollten daher sicherstellen, dass gerade kleine und mittlere Unternehmen regulatorisch nicht belastet und in ihrer Innovation gebremst werden. Gerade eine starke Regulierung verschafft großen Unternehmen einen Wettbewerbsvorteil, da es für sie erheblich einfacher ist, sich an umfassende regulatorische Anforderungen anzupassen. KI-Unternehmen in Europa denken Innovation und Qualität zusammen.
Mit der richtigen Regulierung haben wir die Möglichkeit, junge Unternehmen dabei zu unterstützen, kreativ in ihrer Innovation zu sein, und können etablierte Unternehmen ermutigen, neue Technologien zu erproben. Wir können ein aktives, erfolgreiches und nachhaltiges KI-Ökosystem in der EU aufzubauen. Ein KI-Ökosystem, das weltweit Maßstäbe setzen kann.
Vanessa Cann ist seit Mai 2020 Geschäftsführerin des KI-Bundesverbands. Cann leitete zuvor die Plattformen Künstliche Intelligenz und Future Mobility beim Bundesverband Deutsche Startups. Mitautor ist Jörg Bienert, Vorstandsvorsitzender und Gründungsmitglied des KI-Bundesverbandes. Seit Juli 2019 ist er Chief Product Manager bei der Alexander Thamm GmbH. Das Unternehmen beschäftigt sich mit Data Science und Künstlicher Intelligenz.