Alexa steuert die Musikanlage, Roboter saugen die Wohnung, Bots beantworten Anrufe. Intelligente Maschinen erleichtern unseren Alltag. Und wir werden sie dafür lieben – aber wie sehr, ohne dass wir uns selbst damit schaden?
Beim Videochat mit Hiroshi Ishiguro sollte man genau hinsehen, um den japanischen Rockstar der Robotik nicht mit der Maschine neben ihm zu verwechseln. Sie blinzelt, nickt und neigt den Kopf und sieht dabei nicht nur aus wie ein Mensch, sondern wie Ishiguro selbst. Ishiguro, schwarzer Seitenscheitel, ernster Blick, streicht mit dem Zeigefinger über die Wange seines Roboterebenbilds. „Die Haut ist aus Silikon und das Haar echt. Dazu bewegt sich sein Kopf immer leicht, so wie bei uns Menschen“, sagt der 57-Jährige.
Dass in „Geminoid HI 5“ kein Herz schlägt, sieht man zunächst nur daran, dass der Torso fehlt. Einen Körper hat sein Vorgänger, „Geminoid HI 4“, der hinter Ishiguro an der Wand lehnt. Auch dieser Roboter ist ein maschineller Zwilling des Japaners. Von ihm lässt sich Ishiguro bei Vorlesungen an der Universität von Osaka vertreten, Fragen können die Student:innen dem „echten“ Professor später im Chat stellen.
„Das ist sehr praktisch, ich muss nicht vor Ort sein. Meine Student:innen mögen ihn“, Ishiguro zeigt hinter sich, „ohnehin lieber. Sie finden sein Gesicht sanfter, nicht so streng wie meines.“ Mit etwa 30 Humanoiden, menschenähnlichen Robotern, hat Ishiguro, der auch mal für Gucci Werbung machte, inzwischen experimentiert. Einer seiner Stars ist allerdings „Erica“.
Die brünette Roboterdame übertrumpft Ishiguros Geminoide, die von Menschen ferngesteuert werden. Bis zu zehnminütige Unterhaltungen führt sie schon. „Völlig autonom.“ Ihre Brust hebt und senkt sich dabei, die Kamera-Augen filmen Gesprächspartner:innen, sie vermisst Gesichter, erfasst die Stimmen. Erica passt Emotionen, Mimik und Gestik an. Lächelt, nickt, fragt nach.
„Besucher:innen in Hotellobbys genießen die Konversation mit ihr“, sagt Ishiguro. Mehr als 150 Themen kann Erica. Manche wollten nicht glauben, dass Erica ohne Informatiker:innen im Hintergrund auskomme, sagt er stolz. Genau wie Robotikforscher:innen weltweit fasziniert Ishiguro die Frage, wie wir auf Maschinen reagieren, die aussehen wie wir. Oder die uns ähneln, weil sie sich wie Menschen benehmen.
Die Frage ist zudem zunehmend nicht mehr nur für Forscher:innen interessant. Denn humanoide und androide Roboter, also softwaregesteuerte, mit eigener Intelligenz und menschenartigem Aussehen ausgestattete Maschinen, rücken immer weiter in unseren Alltag vor: Sie assistieren im Service von Unternehmen, säubern Zimmer, pflegen Heimbewohner:innen, übernehmen die Zubereitung des Abendessens. Aber sie arbeiten nicht nur wie wir und rechnen mitunter besser als wir: Weil sie Freude, Trauer oder Angst ausdrücken, Emotionen zeigen, erobern sie auch eine weitere eigentlich menschliche Kernkompetenz. Und das fordert uns heraus: Denn wie umgehen mit Wesen, die ähnlich handeln und entscheiden wie Menschen – und für die wir wegen ihres Aussehens und der vielen Gefallen, die sie uns tun, womöglich Gefühle oder zumindest Sympathien entwickeln?
Roboterdame Erica. Foto: Getty
Humanoid vs. Android
Ruth Stock-Homburg, Professorin für Marketing und Personalmanagement an der TU Darmstadt, schätzt, dass wir schon in „vier bis neun Jahren soziale Roboter in unserer Bürowelt in Arbeitsteams integriert haben“. Dazu zählen Roboter mit menschlichen Zügen und Formen. Humanoide wie der Kunststoffroboter Pepper, der weltweit durch Foyers und Kliniken rollt. Und Androide wie Erica. Roboter, deren Haut, Haare und Stimme Menschen komplett nachempfunden sind.
Beschleuniger diese Entwicklung ist Corona. Die Pandemie hat die Akzeptanz von Robotern laut Stock-Homburg „radikal“ erhöht. Das zeigen zwei Studien der TU Darmstadt, die den Einsatz von Robotern im Kundenkontakt und in Teams in Unternehmen seit Ausbruch von Covid-19 untersuchen. Demnach sehen über zwei Drittel der Befragten deutliche Vorteile von Service-Robotern, etwa im Einzelhandel, wo sie das Infektionsrisiko senken könnten. Auch in Firmen will die Mehrheit der Befragten interaktive Roboter einsetzen.
Noch vor kurzem hätte die 48-jährige Betriebswirtin das für illusorisch gehalten. Denn die wackeligen Gefährten missverstehen Menschen noch häufig, etwa bei Hintergrundgeräuschen, wenn diese nuscheln oder durch Masken sprechen. Doch mit der Fortentwicklung von Hardware, Rechnerkapazitäten und dank Sprüngen im Quantencomputing sieht Stock-Homburg für interaktive Roboter ungeahnte Entwicklungsmöglichkeiten. Auch in der Mechanik. Ein von ihren Kolleg:innen trainierter Roboter zeige beim Pingpong eine Treffergenauigkeit von 95 Prozent, schwärmt sie.
Um Menschen auf die neuen Kollegen vorzubereiten, untersucht Stock-Homburg, was passiert, wenn Pepper oder die blonde Androidin „Elenoide“ plötzlich in Teams mitarbeiten. Androide sind im Vergleich zu Humanoiden noch menschenähnlicher und wesensartiger. Stock-Homburgs Team hat sie mit Algorithmen und Sensoren versehen, sodass sie sich wie Erica nicht nur selbstständig mit Menschen unterhalten und deren Stimmung erfassen kann. Zehn Bewegungsoptionen im Gesicht reagieren auch mit Emotionen wie Freude oder Überraschung. Denn Menschen brauchen „Konsonanz“, ein Gegenüber, das etwa ein Lächeln erwidert.
Das Pharmaunternehmen Merck testete Elenoide schon in der Personalentwicklung. Die Mitarbeiter:innen reagierten überwiegend positiv, heißt es auf der Firmenseite. Eine Haupterkenntnis für Stock-Homburg: Gerade für anspruchsvolle Aufgaben, wenn etwa eine Expertenmeinung zu einem komplexen Thema gefragt ist, seien Androide besser geeignet als Humanoide wie Pepper.
Mit seinen kindlich großen Augen sei der zu niedlich, um ernst genommen zu werden. Außerdem fehle den klar als Maschinen erkennbaren Robotern die Glaubwürdigkeit. Sie eigneten sich eher für simple Konversation und Aufgaben, etwa Gäste am Empfang zu betreuen. Bei einer freundlichen und kompetenten Elenoide hingegen sei die Akzeptanz fast so hoch wie bei einem Menschen, sagt Stock-Homburg.
Zu niedlich, um ernst genommen zu werden: Pepper. Foto: Getty
Willkommen im Uncanny Valley
Wie anders wir auf Menschenroboter reagieren, beschreibt auch Will Jackson, Chef des britischen Androidenbauers Engineered Arts. Auf einem Robotik-Panel erzählt er, wie sich Mitarbeiter:innen um einen ausgeschalteten Androiden gruppierten, als könne der sich mit ihnen unterhalten. „Sie behandelten ihn wie einen Menschen“, so der Entwickler.
Auch Elenoide bewegt die Gemüter. Wenn sie nichts tut oder ernst blickt, verstört sie allerdings eher. Sie kann dann „ziemlich uncanny“, unheimlich, sein, sagt Stock-Homburg.
Die Forscherin bezieht sich auf die „Uncanny Valley“-Hypothese (unheimliches Tal) des japanischen Robotik-Forschers Masahiro Mori. Sie beschreibt, wie die Akzeptanz einer künstlichen Figur dank ihrer Menschenähnlichkeit zunächst steigt. Das geschieht bis zu einem Punkt hoher, aber nicht perfekter Übereinstimmung. Dann verkehrt sich die Wirkung: je menschenähnlicher, desto unheimlicher. Erst bei fast perfekter Menschengleichheit wird es wieder angenehm. Ishiguro ist überzeugt, dass seine Androiden das düstere Tal längst verlassen haben.
Für seinen „Telenoid“, den er jetzt auf den Schoß nimmt, gilt das nicht. Er hat keine Geschlechtsmerkmale, ist weiß und so groß wie ein Kleinkind. Mit seinen Stummelarmen, dem Silikonkörper und dem kahlen Kopf ist er laut Ishiguro für Demenzkranke die perfekte Projektionsfläche, die ihnen beim Erinnern hilft. Sie brauchten das Konturlose. In Pflegeeinrichtungen wird Telenoid derzeit getestet. Doch im Netz zeigt sich Abscheu. Unter Youtube-Videos kommentieren Nutzer:innen, der Roboter sei ein „ekliges Baby“, ein „verunstalteter Fötus“. Ein Nutzer schreibt: „Verbrennt ihn!“
Bei der Morals & Machines 2018 traf Roboter Sophia auf Bundeskanzlerin Angela Merkel.
Der verletzliche Mensch
Anders als der niedliche Pepper und die Ericas und Elenoides dieser Welt fallen Figuren wie Telenoid durch den Akzeptanztest. Unheimlich sollten Roboter nicht sein, keine Freaks. Doch sollte es auch nicht zu sehr menscheln. Das finden jedenfalls diejenigen, die sich wie Alan Winfield mit ethischen Fragen befassen. „Sobald Roboter wie Menschen aussehen, sind wir verletzlich. Wir können dann nicht anders, als emotional zu reagieren“, sagt der Professor für Roboterethik an der University of Westengland. Wir „anthropomorphisieren“ nun einmal, schreiben Gegenständen menschliche Eigenschaften zu. Besonders dann, wenn sie uns ähneln oder starke „soziale Reize“ anbieten, etwa Gefühle wie Angst oder Trauer.
Das solche Sorgen nicht unberechtigt sind, hat Barbara Müller, Juniorprofessorin am Behavioural Science Institute der Radboud-Universität Nijmegen, erlebt. In einer Studie mit der LMU München untersuchte sie, inwiefern Proband:innen in einer Dilemmasituation bereit waren, Menschen anstelle von Robotern zu opfern. Das Ergebnis: Je menschenähnlicher die Roboter, desto weniger waren die Versuchspersonen bereit, sie zu zerstören.
Schon das sei „absurd“, schließlich müsste man wissen, dass Roboter nicht wie wir fühlen, so Müller. „Schockierend, aber nicht überraschend“ für die 39-jährige Psychologin war allerdings, dass die Empathie bei manchen Teilnehmer:innen so weit reichte, dass sie lieber eine Gruppe Menschen opferten als den armen Roboter. „Wer sich mit Mensch-Roboter-Interaktion auskennt, weiß, dass wir besonders empathisch reagieren, wenn Maschinen Emotionen simulieren“, sagt Müller.
Könnten aber auch andersherum die Maschinen empfindungsfähig sein? KI-Experten wie Jürgen Schmidhuber vom Swiss AI Lab (IDSIA) behaupten das, die meisten Kolleg:innen sehen das kritisch. Doch ganz unabhängig davon machen Menschen kaum einen Unterschied. Denn humanoide Maschinen sind „sozial ansteckend“, wie es in der Robotik-Mensch-Forschung heißt. Wenn sie sich fröhlich zeigen, geht es uns besser, wenn sie leiden, leiden auch wir. Das unterstreichen Experimente von Kate Darling, die am Massachusetts Institute of Technology forscht. Sie ließ Probandinnen mit einem putzig quiekenden Dino-Roboter spielen. Die meisten weigerten sich im Anschluss, den Roboter auf Darlings Anweisung hin zu köpfen. Eine Probandin umklammerte ihren Dino sogar und entfernte die Batterie, um „ihm Schmerzen zu ersparen“.
Studien zeigen, dass insbesondere einsame Menschen stark anthropomorphisieren. Das bietet Raum für Missbrauch, mahnt genau wie Winfield Joanna Bryson, Professorin für Ethik und Technologie an der Hertie School Berlin. Sie hat an den Prinzipien für Robotik in Großbritannien mitgearbeitet und wurde von Deutschland als Expertin für die KI-Initiative „Global Partnership on Artificial Intelligence“ nominiert. „Empathie funktioniert besser, je ähnlicher dir jemand ist“, sagt Bryson.
Sollte man „anthropomorphe“ Roboter oder Avatare also lieber im Labor lassen? Als einfühlsame Kameraden könnten sie Konsument:innen womöglich ausspionieren oder sie zu Produktkäufen verführen. Besonders wenn sie unwissenden Menschen Freundschaft vorgaukeln. Zwingend wäre, dass Hersteller transparent machen, wie und wozu eine Maschine programmiert sei. Was sie könne und vor allem: was nicht, so Bryson.
Damit wir sie akzeptieren, ihnen aber nicht verfallen, plädieren Forscher:innen zudem dafür, soziale Roboter so zu entwickeln, dass weniger das „affektive“, dafür das „kognitive“ Vertrauen im Vordergrund steht. Akzeptanz durch Aufgeklärtheit statt durch Emotionen. Also eigentlich etwas, was die Maschine dem Menschen voraushaben sollte.
Titelbild: Osaka University