Ich bin keine
Computerwissenschaftlerin, ich entwickle keine Künstliche Intelligenz (KI) und ich
mache mir keine Sorgen, dass eine Herrschaft der Maschinen unmittelbar
bevorsteht – sondern: Ich interessiere mich als Psychologin dafür, wie
Menschen Roboter wahrnehmen und mit ihnen interagieren. Nicht nur deshalb
habe ich einen Roboter als Hilfswissenschaftler
(Hiwi) eingestellt.
Warum Psychologen überhaupt Roboter erforschen? Dafür gibt es mindestens zwei Gründe: Stellen Sie sich erstens ein Experiment zur sozialen Interaktion vor. Man möchte mehr über die Prozesse erfahren, die dem menschlichen Sozialverhalten zu Grunde liegen. In der Vergangenheit haben viele Studien der sozialen Neurowissenschaften ihren Versuchspersonen Bilder und Videos von Personen gezeigt. Die Wissenschaftler erhielten so ein hohes Maß an experimenteller Kontrolle über die Stimuli und alle Versuchspersonen wurden genau den gleichen Experimentalbedingungen ausgesetzt. Aber woher wissen wir, dass die Beobachtung einer Interaktion zu der gleichen Reaktion führt, wie ein echter zwischenmenschlicher Austausch?
Ein Hiwi, der niemals müde wird
Hier kommt die ökologische Validität ins Spiel. Anders gesagt, Wissenschaftler möchten eben diese realen Phänomene erfassen, und machen sich Gedanken darüber ob die Resultate ihrer Experimente auch in einen alltäglichen Kontext übersetzt werden können. Oft muss man Kompromisse eingehen zwischen experimenteller Kontrolle und ökologischer Validität.
Roboter bieten einen Ausweg aus diesem Dilemma: Als Hiwi, der sein Verhalten jedes Mal genau wiederholen wird, wie beim ersten Mal – und der niemals müde wird (es sei denn die Motoren überhitzen). Mit anderen Worten: Man kann nun Experimente planen die ökologisch valide sind und zugleich sehr genau kontrolliert werden können.
Mit Robotern die Flexibilität des „sozialen Gehirns“ testen
Der zweite Grund der für Roboter in psychologischen Experimenten spricht: Sie erlauben uns, Fragen zu der Flexibilität unseres „sozialen Gehirns“ zu beantworten. In den vergangenen Jahren sind immer mehr Roboter aus den Fabriken in die Häuser der Menschen gezogen. Ob in Form von Amazons Alexa, als Spielzeug im Kinderzimmer oder bei Begegnungen wie etwa mit humanoiden Robotern am Münchner Flughafen. Das Potenzial ist enorm – fast jeder Lebensbereich und -phase könnte von einer helfenden Roboterhand profitieren. Ein Problem besteht jedoch weiterhin: die meisten kommerziell erwerblichen Roboter haben nur sehr begrenzte „social skills“.
Denn nur unter optimalen Bedingungen können sie autonom funktionieren. In meinen Experimenten mit dem humanoiden Roboter Pepper wollte ich ihn zunächst unabhängig arbeiten lassen, doch ich musste schnell feststellen, dass selbst kleinste Veränderungen der Lichtbedingungen oder Verhaltensweisen der Versuchspersonen zum Zusammenbruch der Interaktion führten. Daher stellt sich die Frage: Wie smart sind die sozialen Roboter eigentlich?
Mensch-Roboter-Experimente im „Wizard-of-Oz“-Modus
Um den hohen Erwartungen der Endnutzer (und Wissenschaftler) zu entsprechen, müssen soziale Roboter weiter an ihrer „emotionalen Intelligenz“ arbeiten. Aktuell werden fast alle Mensch-Roboter Experimente und „User-Studies“ im sogenannten „Wizard-of-Oz“-Modus durchgeführt. Das heißt dass der Roboter wie eine Marionette 2.0 von einem Experimentleiter (meist versteckt im Kontrollraum) gesteuert wird, so dass die Sprachverarbeitung und Computervision eine menschliche Stütze erhält. Es verbleibt ein Hauch von Science-Fiction in vielen Experimenten der Sozialen Robotik.
Hier, so argumentiert das Social Brain in Action Labor an der University of Glasgow, können Erkenntnisse der Psychologie und Neurowissenschaften eine große Hilfe sein (Cross, Hortensius, & Wykowska, 2019). Um den Robotern zu mehr Unabhängigkeit im Austausch mit den Menschen zu verhelfen, können wir auf psychologische und neurowissenschaftliche Experimente zu Mimik, Gestik und Empathie zurückgreifen.
Das Ziel der Forschung ist somit die zugrundeliegenden Mechanismen des „sozialen Gehirns“ besser zu verstehen, um Roboter smarter und weniger unbeholfen in der Begegnung mit dem Menschen zu machen, und neurowissenschaftliche Experimente aus dem Scanner in die Welt zu bringen – und wenn man dabei noch mit Robotern arbeiten kann, dann ist das natürlich ein schöner Bonus.
Anna Henschel ist Doktorandin an der University of Glasgow, wo sie an Mensch-Roboter Interaktion forscht. Sie hat einen Bachelor in Psychologie von der Universität Konstanz und einen Master in Kognitiver Neuropsycholgie von der VU Amsterdam. Neben der Forschung unterrichtet sie und schreibt über Wissenschaftsthemen. Heute wird sie beim KI-Camp in Berlin einen Vortrag halten zum Thema: „Are social robots also smart robots?“. Ihr Text erschien erstmalig in leicht veränderter Form auf dem Blog der University of Glasgow unter dem Titel “My Robotic Research Assistant”.