Was führt dazu, dass Menschen bestimmte normative Grenzen überschreiten? Was sehen wir als so verwerflich an, dass wir es bestrafen müssen? Diese Fragen interessieren Susanne Beck an ihrem Fachgebiet. Die Antworten „sagen viel über eine Gesellschaft aus“, findet die Professorin für Strafrecht an der Leibniz Universität Hannover. So interessiert sie sich neben dem Strafrecht auch für Philosophie und Rechtstheorie. Aber Strafrecht sei das Gebiet, in dem sie sich „am meisten zuhause fühle“. Einer der Schwerpunkte ihrer Forschung liegt auf der Verbindung von Strafrecht und modernen Technologien, wie Künstlicher Intelligenz (KI), Robotik, Cybercrime und Digitalisierung. Daneben beschäftigt sie sich auch mit Medizinstrafrecht in Zusammenhang mit selbstlernenden Systemen.
Geplant war es nicht, dass sie Hochschullehrerin werden würde, sagt die 42-Jährige. Aber rückblickend sei sie sehr froh über die Entscheidung. „Das ist der beste Beruf, den man haben kann.“ Nach dem ersten juristischen Staatsexamen in Würzburg machte sie eine Weile Pause und probierte sich am Journalismus. Doch es zog sie wieder zurück an die Uni, wo sie 2006 mit ihrer Arbeit zu Stammzellforschung und Strafrecht promovierte. Seit 2013 ist sie Lehrstuhlinhaberin für Strafrecht, Strafprozessrecht und Rechtsphilosophie an der Leibniz Universität.
Ziel ist ein Leitfaden für die Politik
Hier hat Beck zuletzt in dem Projekt vALID zu erforschen begonnen, wie KI in der Medizin entwickelt werden muss, damit der Mensch hinreichende Entscheidungsmacht hat. „Entscheidungen im medizinischen Bereich werden zwischen Menschen und Maschine gemeinsam getroffen“, erklärt sie. In dem Projekt beschäftigen sie und ihre Mitarbeiter sich mit der Vertrauenswürdigkeit von KI sowie mit der Frage, wer wie moralisch und rechtlich für Entscheidungen und Ergebnisse verantwortlich ist, die durch KI-gesteuerte Systeme getroffen wurden. Ziel sei es, einen Leitfaden für die Politik zu erstellen, wie mit KI-gesteuerten System in der Medizin umgegangen werden sollte.
Selbstlernende Systeme werden inzwischen schon oft in der Pathologie und Radiologie in Bilderkennungsprogrammen verwendet, so Beck. Ungeklärt sei auch hier die Haftungsfrage. „Im Moment ist es noch so, dass der Mensch die volle Haftung übernimmt, wenn er die Vorschläge, die die KI ihm macht, umsetzt“, sagt Beck. Das sei aus ihrer Sicht manchmal problematisch, weil es psychologisch und rechtlich schwer sei, sich als Arzt gegen den Vorschlag der KI zu richten. Denn im Zweifel hafte man auch dafür. „Es ist einfach noch vieles unklar, weil wir die Vorschläge der KI noch nicht hundertprozentig verstehen können“, sagt sie. Ein weiterer Aspekt, zu dem Beck gerade ein Paper schreibt, befasst sich mit den Regelungen zur Aufklärung und Einwilligung der Patienten. Diese seien nicht umfassend an die aktuellen Entwicklungen in der Medizin angepasst, so Beck.
Technologie ist nicht neutral
Beck ist zudem Teil der 16-köpfigen Arbeitsgruppe Recht und Ethik der vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Plattform Lernende Systeme, die insgesamt rund 200 Experten aus Wissenschaft, Wirtschaft und Gesellschaft vereint. Die Plattform wurde im Jahr 2017 mit dem Anspruch gegründet, Lernende Systeme im Sinne der Gesellschaft zu gestalten. Im Juni 2019 veröffentlichte Beck gemeinsam mit drei Kolleginnen und Kollegen aus der Arbeitsgruppe ein Whitepaper zum Thema Künstliche Intelligenz und Diskriminierung. Wichtig sei ihr, in der Gesellschaft ein Problembewusstsein über Diskriminierung durch Algorithmen und Lernende Systeme zu schaffen. „Bei Technologie haben wir ein großes Vertrauen, dass sie neutral ist und dass wir diese Probleme nicht haben. Das stimmt gar nicht“, sagt sie. Durch Technologien sei das Problem der Diskriminierung nicht gelöst.
Klar sei, dass Experten über Lösungen nachdenken müssten. „Aber es muss auch in der Gesellschaft diskutiert werden“, meint Beck. Außerdem müssten abstrakte Empfehlungen für eine transparentere, verantwortungsvollere und diskriminierungsfreie KI herunter gebrochen werden. Laien müsse verdeutlicht werden, „was das im Konkreten heißt“, so Beck. Ihre eigenen Überlegungen hat die Wissenschaftlerin dazu jüngst in ihrem Whitepaper formuliert. Sie ist aber überzeugt: „Experten können das nicht für die Gesellschaft entscheiden.“ Zur Beurteilung dieser Fragen brauche es unabhängige Institutionen. Antonia Dittrich