Smarte Maschinen sind nicht nur rational – sie werden auch emotional. Zumindest wenn das Miteinander von Mensch und Maschine so weitergeht.
Eines wird der Mensch der Maschine immer voraus haben: die Empathie. Oder?
Jürgen Schmidhuber sieht das anders. Im Interview erklärt der renommierte KI-Forscher, warum Roboter seiner Ansicht nach genauso empfindsame Wesen sind wie wir.
Herr Schmidhuber, Sie glauben, dass Roboter empfinden und fühlen können wie wir. Weshalb?
Weil sie es im Prinzip bereits tun. Sie empfinden zum Beispiel Schmerz, wenn sie über entsprechende Sensoren verfügen. Das ist einfach einzubauen. Unerwünschte Signale werden durch negative Zahlen kodiert. Ein Lernalgorithmus versucht, solche Signale zu minimieren. Das motiviert den Roboter, zu lernen und sich beim Navigieren nicht zu beschädigen.
Ein Roboter bekommt Zahlensignale, aber Schmerzen spüren kann er nicht.
Wirklich nicht? Ein selbstlernender Roboter hat ein kleines Gehirn, mit dem er ausprobiert, was schmerzt und was belohnt wird. Etwa, sich aufzuladen, wenn er Hunger hat.
Ein Roboter hat aber keinen Hunger, sondern eine Batterie. Warum diese Anthropomorphismen?
Tiere, Menschen und lernende Roboter sind im Grunde vergleichbar. Schmerz und Belohnung motiviert alle, zu lernen und erfolgreich zu sein. Menschen laden ihre chemischen Batterien eben über Pflanzen und Tiere, die sie verzehren.
KI soll künftig unsere Emotionen erkennen und darauf reagieren. Wie das funktioniert, erklären Milena Merten und Léa Steinacker im ada-Podcast.
Die Technik- und Ethikprofessorin Joanna Bryson hält die Vermenschlichung von Maschinen für „Täuschung“. Roboter tun nur, wozu Menschen sie programmieren.
Das ist irreführend. Das Einzige, was wir unseren selbstlernenden Maschinen vorgeben, ist ein Lernalgorithmus, der dafür sorgt, dass sie die Welt erkunden und lernen, Erfolg zu haben. Oft überrascht es den Programmierer, was später gelernt wird. Auch in unseren Genen steckt ein Lernprogramm, das uns nicht im Detail vorgibt, was wir tun sollen. Wir finden das heraus, indem wir testen, was uns guttut und was nicht. Auch die künstlichen neuronalen Netze der Robotergehirne lernen aus Erfahrung. Zwar simulieren Transistoren ihre Synapsen. Aber die Prinzipien der Belohnungsmaximierung sind dieselben.
Wenn die Prinzipien gleich sind, dann müssten wir dieselben ethischen Konzepte auf Roboter anwenden. Sie also gut behandeln und nicht zerstören.
Ja, aber so eine Ethik wird gewiss auch berücksichtigen, dass man einen Roboter anders als einen toten Menschen wieder reparieren kann.
Aus der Psychologie wissen wir, dass wir gar nicht anders können, als Gegenständen menschliche Qualitäten zuzuschreiben. Wir fühlen sogar mit Autos, wenn wir glauben, sie leiden.
Ja, und dabei sind das bloß dumme, vorprogrammierte Maschinen, die nichts Neues lernen. Wirklich intelligente Roboter lernen zu antizipieren, ob aus ihren Aktionen Belohnung oder Schmerz folgt. Mit einer Gesichtserkennung lernen sie vielleicht, welche Menschen ihnen schaden wollen, und verstecken sich vor ihnen, ohne so programmiert worden zu sein. Zunächst wissen sie aber weder, was Gefahr ist, noch wie man sie vermeidet.
Trotzdem ist es ein Unterschied, ob eine Maschine unerwünschte Handlungen vermeidet oder ob sie fühlt.
Sind Sie sich da sicher? Zumindest haben wir im Labor erlebt, wie Formen von Empathie zwischen belohnungsmaximierenden Agenten quasi als Nebenprodukt entstehen. Sie können lernen, dass es Vorteile bringt, den anderen zu helfen. Egoismus begründet Altruismus.
Sehen Sie Unterschiede zwischen Menschen und lernenden Robotern?
Klar. Stirbt heute ein Mensch, dann auch seine Erfahrungen. Bei defekten Robotern muss das nicht sein. Aber Motivation und Lernprinzipien ähneln sich. In mir finde ich nichts Bemerkenswertes, das nicht auch in zukünftigen lernenden Robotern denkbar wäre.
Titelbild: Getty Images, Foto Jürgen Schmidhuber: IMAGO / Eventpress