Zuerst die gute Nachricht: Sie müssen dieses Jahr keine Weihnachtskarten schreiben. Dafür gibt es jetzt Maschinen. Vor drei Wochen hat das Unternehmen Open AI seinen supersmarten Chatbot ChatGPT veröffentlicht, der auf alle Fragen und Aufträge eine Antwort weiß. Millionen freiwilliger Tester erkunden derzeit die Grenzen des Systems.
Das erste Ergebnis: ChatGPT ist nicht weit entfernt von einer General AI, einer allgemeinen Künstlichen Intelligenz, die nicht auf bestimmte Einsatzfelder begrenzt ist. Es kann Faktenfragen beantworten, Informationen vergleichen, Wissen zusammenfassen, Textformate replizieren, Zeitpläne entwerfen und sogar individuelle Kochrezepte generieren.
Was ChatGPT alles nicht kann
Werden Chatbots nun die Suchmaschinen ersetzen, unsere Jobs oder vielleicht gar die Menschheit? Nein. Denn auch ChatGPT macht Fehler. Es scheitert besonders an einfachen Faktenfragen oder Logikrätseln. Es kann ausgerechnet mathematische Textaufgaben nicht lösen und mit Verneinungen schlecht umgehen. Am wichtigsten aber: Es kann zwischen wahr und unwahr nicht unterscheiden.
Klar, auch Menschen machen Fehler, würden aber beispielsweise nicht behaupten, ein Abakus wäre schneller als eine GPU oder auf die Frage nach dem schnellsten Meeressäugetier den Wanderfalken vorschlagen. Die Grenzen von ChatGPT sind symptomatisch für die allgemeinen Grenzen Künstlicher Intelligenz. Denn so eindrucksvoll die Ergebnisse auch sind, sie basieren letztlich allein auf statistischen Häufungen: abstrakte Muster in gigantischen Textmengen. Sie entstehen nicht durch Einsicht in reale Zusammenhänge oder Gesetzmäßigkeiten, sondern durch mathematische Kalküle im Datenraum, durch Korrelation nicht durch Kausalität.
Die Verflachung der Welt: Auch mit ChatGPT?
Computer verarbeiten anders als Menschen keine Symbole und Zeichen, sondern Zahlen. Der Unterschied ist, dass Symbole für eine Realität außerhalb des eigenen Bewusstseins stehen und in dieser externen Realität Sinn ergeben müssen. Computer hingegen verrechnen endlose Ketten von Nullen und Einsen, die sich wie alle Zahlen gerade durch ihre Abstraktion von einer konkreten Realität auszeichnen. Um diesen Unterschied greifen zu können, hat die Technikphilosophin Sybille Krämer die Art, wie Digitalrechner operieren einmal als „Verflachung der Welt“ beschrieben.
Durch die Abstraktion auf Datensätze können Computer Informationen zwar viel schneller und umfassender verarbeiten als das menschliche Bewusstsein, aber durch den mangelnden Realitätsbezug ergeben sich auch Verbindungen und Ergebnisse, die in der Wirklichkeit keinen Sinn ergeben. Man kann sich das in etwa vorstellen, wie die Logik der Bilder von M.C. Escher, in denen stets aufsteigende Treppen endlose Zirkel bilden und oben und unten kontinuierlich aneinander anschließen. Malen kann man das, bauen nicht.
Die Wahrheit der Daten ist eine andere als die der Realität. Deshalb wurde ChatGPT auch nicht darauf trainiert möglichst wahre Antworten zu liefern, wie könnte es auch, sondern möglichst plausible, das heißt in sich kohärente Antworten. Die Ergebnisse sind flüssig zu lesen und in sich stimmig, bleiben aber mangels Einsicht oberflächlich und generisch — und ohne Anspruch auf Wahrheit.
Wobei uns ChatGPT wirklich helfen kann – und soll
Dieser Mangel soll die Fähigkeiten und auch den Mehrwert des Programms für die Arbeitswelt jedoch nicht schmälern. Wichtig für seinen Einsatz ist nur das Erwartungsmanagement. ChatGPT ist keine allgemeine Künstliche Intelligenz, kein allwissender Meister aller Fächer sondern eher ein fleißiger Assistent, ohne Lebens- und Berufserfahrung.
Er kann Gehörtes reproduzieren, große Informationsmengen auswerten, ohne aber selbst einschätzen zu können, was wichtig und unwichtig oder was richtig und falsch ist. Diese Differenz wird sich durch größere Datenmengen und komplexere Prüfmechanismen eventuell weiter minimieren, aber nie vollständig eliminieren lassen. Egal wie gut die Maschinen lernen, Menschen zu imitieren, Menschen werden weiterhin die Ergebnisse der Maschinen prüfen und anpassen müssen.
Statt smarte Assistenten wie ChatGPT als Konkurrenz zu empfinden, sollten wir unsere Energie darauf verwenden, zu erkunden, wie wir mit der KI produktiv interagieren können. Wie diese Zukunft der Zusammenarbeit aussehen könnte, lässt sich besonders in der Softwareentwicklung schon heute beobachten. ChatGPT ist nicht nur in der Lage in verschiedenen Sprachen und Dialekten zu antworten, sondern auch in Codebausteinen.
Einfache Aufgaben, die man ihm in natürlicher Sprache gibt, setzt es eigenständig in vollständig funktionale Scripte um. Copilot, ein anderer smarter Assistent der Entwicklungsplattform Github, schlägt während des Programmierens eigenständig passende Anschlussbausteine vor, die nur noch selektiert werden müssen. Die Aufgabe des Menschen bleibt dabei, den Zweck der Software in maschinenverständliche Einzelaufträge zu zerlegen, die passenden Codesnippets auszuwählen, anzupassen und aneinanderzufügen.
Diese Form der Zusammenarbeit ist auch für jedes andere Feld der Wissensarbeit denkbar. Smarte Assistenten verfolgen unsere Arbeitsschritte und schlagen die nächsten Textzeilen oder Klicks eigenständig vor. Per Autovervollständigung ließen sich Berichte oder Anschreiben so Absatz für Absatz in Minuten zusammenklicken.
Wie man ChatGPT die Sprache einer Organisation beibringt
Wie mächtig das Tool tatsächlich ist, wird sich zeigen, wenn es für das Training auf fachspezifische, organisationsinterne Datensätze freigegeben wird. Noch ist ChatGPT auf einen festen Datenstamm aus dem Jahr 2021 optimiert. Mit einer Implementierung von iKalender-, CRM-, Customer Service- oder Email-Daten wäre eine Schärfung der Antworten für den individuellen Bedarf jedoch gut möglich.
Letztlich muss sich zeigen, wie tiefenscharf sich das breite Sprachmodell auf harte Wissensbestände fokussieren lässt. Schließlich ist es darauf trainiert eine möglichst plausible, nicht unbedingt wahre Antwort zu generieren. Sein Vorgängermodell GPT-3 versprach durch individuelles Training noch eine Senkung der Fehlerquote um 50 Prozent.
Die Maschine für sich nutzen wird Soft-Skill Nummer 1
Es ist also noch Luft nach oben. Und auch, wenn diese weiterhin schwindet: Überflüssig werden wir Menschen nicht. Unsere Aufgabe bleibt es, die Maschinen mit den richtigen Daten zu füttern, die Ergebnisse zu überprüfen, auszuwählen und vor allem die richtigen Fragen zu stellen. Denn der Mehrwert, den smarte Assistenten für uns liefern können, hängt vor allem von unserer Fähigkeit ab, ihnen möglichst genaue Anweisungen zu geben.
Während „richtig googlen können“ in vielen Berufen schon seit 20 Jahren zum zentralen Soft-Skill gehört, wird das sogenannte „prompt engineering“, also die Fähigkeit dem Computer möglichst zielführende Fragen zu stellen, zur Schlüsselfähigkeit der Zukunft. Welche Parameter muss ich bedenken, an die die Maschine nicht denkt: Thema, Zielgruppe, Tonalität, Textformat, Ausschlusskriterien… Wie kann ich vermeiden, missverstanden zu werden? Kurzum: Wie erkläre ich einer Maschine so genau, was ich wissen möchte, dass sie es auch ohne Weltbewusstsein beantworten kann? Diese Fähigkeit können sie auch jetzt schon trainieren, zum Beispiel mit einer Weihnachtskarte.
Mads Pankow ist selbstständiger Publizist. Er hält europaweit Vorträge zu Themen der Digitalen Gesellschaft und Künstlichen Intelligenz. Außerdem ist er regelmäßig im Podcast „Mensch, Maschine!“ zu hören und berät verschiedene Bundes- und Landesministerien zu Fragen des digitalen Wandels.