Reid Southen ist sauer. Er hat die Künstliche Intelligenz (KI) Midjourney benutzt. Mit ein paar einfachen Prompts hat Midjourney Film-Standbilder ausgeworfen. Sie entsprechen Standbildern aus bekannten Filmen praktisch vollständig. So zum Beispiel dem berühmten Standbild des Joker aus dem gleichnamigen Film. Warum das Southen interessiert? Er ist Concept Artist, arbeitet beispielsweise für die Hollywood Studios und hat als Urheber das Äußere der Figur des Joker mit geschaffen. Midjourney hat aber weder das Filmstudio noch ihn gefragt, die Figur des Joker als Standbild benutzen zu dürfen. Southen hat sich über Midjourney beschwert, und KI-Blogger Gary Marcus hat das einem größeren Publikum bekannt gemacht. Daraufhin hat die Betreiberin von Midjourney dafür gesorgt, dass die KI Joker-Standbilder nicht mehr auswirft.
Southen steht mit seinem Ärger über die durch generative KI erzeugten Inhalte nicht allein da. In vielen Fällen enthält ihr Output Inhalte, an denen andere Urheberrechte halten. Urheberrechtsverletzungen können unangenehme Folgen haben: Abmahnungen, Verbote, Schadensersatz.
Wann liegt eine Verletzung durch KI-Output vor?
Dafür sollten die bisherigen Regeln gelten. KI-Output, der mit dem Original identisch ist, ist rechtsverletzend. Genauso ist KI-Output rechtsverletzend, in dem das Original zumindest wiedererkennbar ist.
Allerdings ergibt sich nach den bisherigen Regeln möglicherweise noch eine Einschränkung, sodass keine Urheberrechtsverletzung vorliegt, selbst wenn der KI-Output mit dem Original identisch oder das Original zumindest wiedererkennbar ist. Falls die generative KI nicht mit dem Original trainiert wurde, wäre die Übereinstimmung rein zufällig. Solche rein zufälligen Übereinstimmungen werden als „Doppelschöpfung“ bezeichnet. Sie sind bei zufällig übereinstimmenden menschlichen Schöpfungen keine Urheberrechtsverletzung. Soll auch KI-Systemen das Privileg der zufälligen „Doppelschöpfung“ zugutekommen? Das erscheint als offen.
Erlaubt man die Verteidigung mit der Doppelschöpfung, könnte die Beweislast dafür, dass das Originalwerk nicht für das Training der generativen KI genutzt wurde, bei demjenigen liegen, der sich zur Verteidigung auf eine Doppelschöpfung beruft – wie bisher in der Welt der menschlichen Schöpfungen. Das würde bedeuten, dass die generative KI transparent machen müsste, womit sie trainiert wurde, was heute eher die Ausnahme ist. Danach liegt im Joker-Fall also eine Verletzung des Urheberrechts vor. Es sei denn, man kann beweisen, dass Midjourney nicht mit Joker-Standbildern (oder gar dem Film) trainiert wurde.
Wer ist für KI-Output verantwortlich?
Die Frage nach der Verantwortung ist die Frage danach, wer haftet. Für Nutzende ist das einfach zu beantworten, wenn sie den KI-Output weiter nutzen. Hier gelten die allgemeinen Regeln. Wer KI-Output noch einmal vervielfältigt, verbreitet (verkauft) oder öffentlich wiedergibt (zum Beispiel ins Internet stellt), der haftet für die Nutzung. Denn das ist eine Urheberrechtsverletzung.
Eine andere Frage ist, wer eigentlich für den KI-Output als solchen haftet. Haftet die KI-Betreiberin? Eine spezielle Betreiberhaftung für Urheberrechtsverletzungen gibt es im Bereich der generativen KI derzeit nicht. Aber für die KI-Betreiberin kommt eine Haftung nach den allgemeinen Regeln in Betracht, dort allerdings im Regelfall nur eine Haftung wegen unzulässiger Vervielfältigung in Form des KI-Outputs. Bei Software-Anbietern lehnen die deutschen Gerichte jedoch bisher die Haftung ab, weil dort grundsätzlich die Software-Nutzenden verantwortlich sind, nicht die Softwareherstellerin.
Jedoch spricht einiges dafür, es bei urheberrechtsverletzenden KI-Output anders zu handhaben. Das Anbieten eines KI-Systems ist mehr als die Bereitstellung einer Software, die den Nutzenden eine Vervielfältigung nach eigener Entscheidung ermöglicht. Denn das KI-System kann den Output maßgeblich inhaltlich bestimmen.
Eine Idee wäre deshalb, die Verantwortlichkeit (sogenannte Tatherrschaft) denjenigen zuzurechnen, die den Schwerpunkt der Bestimmung des Inhalts setzen. Sofern die KI bloß technisches Werkzeug der Nutzenden ist und der Schwerpunkt der Bestimmung bei ihnen liegt (zum Beispiel durch ihre Prompts), kommen allein die KI-Nutzenden als verantwortliche Täter in Betracht. Anders sollte es aber liegen, wenn der Schwerpunkt der Bestimmung des Inhalts bei der generativen KI liegt. Dann könnte der KI-Betreiberin die Verantwortlichkeit zugewiesen werden. Beispielsweise wäre die Künstliche Intelligenz Midjourney verantwortlich, wenn ein KI-Nutzer wie Reid Southen nur völlig untergeordnete Vorgaben in Form von Prompts gemacht hat.
Erzeugt die generative KI den rechtsverletzenden Output ohne eigene Verantwortlichkeit (Tatherrschaft), sollte allerdings nicht jede Haftung der KI-Betreiberin ausgeschlossen sein. Immerhin bleibt die KI mittelbarer Verursacher. Deshalb ist zu überlegen, ob nicht ein Haftungsmodell angewendet werden kann, das der Europäische Gerichtshof insbesondere für die Videoplattform Youtube entwickelt hat.
Danach sind die Youtubes dieser Welt verantwortlich, auch wenn eigentlich die Nutzenden die Verletzung hochgeladen haben. Denn Videoplattformen sind in einer „zentralen Rolle“ für die Verletzung. Zusätzlich müssen sie bestimmte Pflichten verletzt haben. Die Anwendung dieses Modells zur Zuweisung von Verantwortlichkeit hat auch für KI-Betreiberinnen Charme. Die generative KI steht noch näher an der Verletzung als eine Videoplattform, für die der Europäische Gerichtshof eine zentrale Rolle bestätigt hat.
Die Pflichten des KI-Betreibers müssen natürlich verhältnismäßig gebildet werden. Beispielsweise würde eine Pflicht bestehen, dass eine KI wie Midjourney dafür sorgt, dass klare Verletzungen wie das Joker-Standbild nicht mehr ausgeworfen werden, sobald Midjourney darauf aufmerksam gemacht wurde, dass die KI Joker-Standbilder auswirft. Das scheint Midjourney im Fall gemacht zu haben. Zusätzlich muss eine KI, bei der Verletzungen immer wieder vorkommen, eine sogenannte Alignment-Software benutzen, die den Auswurf von Verletzungen auch ohne vorherige Mitteilung verhindert – genauso wie generative KI heute schon den Auswurf von rassistischen Witzen ausschließt.
Und wie senken KI-Nutzende das Risiko?
Viele Unternehmen und Privatleute nutzen heute KI-erzeugte Inhalte öffentlich. Das löst ein Haftungsrisiko aus, wenn die KI nicht hinreichend dagegen abgesichert ist und insbesondere keine ausreichende Alignment-Software gegen Urheberrechtsverletzungen benutzt. Drei Maßnahmen können helfen, dieses Risiko zu senken:
- Die KI-Nutzenden sollten selbst mit geeigneten Werkzeugen prüfen, ob der generierte KI-Output urheberrechtsverletzend ist. Dazu können zum Beispiel Rückwärts-Bildersuchen oder in der Wissenschaft schon länger verwendete Software zum Aufspüren von Plagiaten genutzt werden. Mit anderen Worten: KI-Nutzende brauchen einen eigenen belastbaren Alignment-Plan, wenn der KI-Anbieter ihn nicht hat.
- KI-Nutzende sollten KI-Output verwenden, der mit Inhalten trainiert wurde, die sie kontrollieren, also an denen sie die Rechte halten. Das sind beispielsweise Inhalte, die ihre Mitarbeitenden geschaffen haben – wie in einem Zeitschriftenverlag die Angestellten.
- Sofern Unternehmen Inhalte zugeliefert werden, sollten sie mit ihren Inhalte-Lieferanten verabreden, dass eine KI-Nutzung transparent gemacht wird. Menschliche Schaffende haben ein Gewissen und werden im Regelfall versuchen, keine Verletzungen zu liefern. Wer KI als Lieferant nutzt, kann aber oft nicht wissen, ob die Lieferungen verletzend sind.
Übrigens warten der europäische und der deutsche Gesetzgeber derzeit noch ab, welchen Regelungsbedarf es gibt und ob nicht die bisherigen Regeln ausreichen. Das ist grundsätzlich richtig. Eine Ausnahme zeichnet sich aber mit dem sogenannten AI Act in Brüssel ab: Es wird Vorschriften geben, die KI-Betreiber verpflichten, transparent zu machen, mit welchen (auch urheberrechtlich geschützten) Daten sie ihre Systeme trainiert haben.
Fazit: Betreiberinnen generativer KI wie Midjourney sollten eigentlich verpflichtet sein, zumutbare Anstrengungen zu unternehmen, ihre Systeme zuverlässig vor Urheberrechtsverletzungen zu schützen. Solange das nicht der Fall ist, müssen die KI-Nutzenden Risikovorsorge treffen. Das gilt vor allem bei öffentlichen Nutzungen. Ansonsten droht, dass sich Urheber wie Reid Southen ärgern und sie unangenehme Post als Verletzer bekommen.
Jan Bernd Nordemann ist Fachanwalt für Urheber- und Medienrecht in der Kanzlei Nordemann und Honorarprofessor an der Humboldt-Universität Berlin. Der Beitrag ist die bearbeitete Fassung des Editorials in Heft 1/2024 der Fachzeitschrift GRUR (Gewerblicher Rechtsschutz und Urheberrecht).