In diesem Brief aus der Zukunft geht es um Digitale Psychotherapie // Empathische KI // Shift Happens #10.
Was würdest du davon halten, einen Beziehungscoach zu haben, jemanden, der oder die dich berät, in allen Beziehungs- und Lebenslagen? Alex Furmansky, amerikanischer Unternehmer, hat sich diesen Wunsch kürzlich erfüllt. Sein Beziehungscoach ist nicht irgendwer, sondern Esther Perel: weltbekannte Psychotherapeutin und Buchautorin, die durch ihre raumgreifende Bühnenpräsenz den Titel des Beziehungsgurus verdient wie kaum sonst jemand. Furmansky schreibt, dass er Esther Perel jederzeit per Handy erreiche. Oder vielleicht nicht Esther selbst, zugegeben, aber AI Esther: ein Sprachmodell, trainiert mit Perels Texten, das Antworten auf Beziehungsfragen gibt.
Nicht-AI Esther hält wenig von AI Esther, das wurde auf dem Tech-Festival SXSW vor ein paar Tagen sehr deutlich. Wer will schon, dass die eigenen Gedanken ungefragt zu Trainingsdaten werden? Perel störte sich allerdings mehr daran, dass ihre KI-Version eine körperlose Therapeutin ist, der menschliche Erfahrungen fremd sind. Doch auch wenn Perel damit recht hat, ändert das wenig daran, dass die digitale Psychotherapie schwer im Kommen ist. Dabei geht es nicht nur um Therapiesitzungen mit Chatbots, sondern auch um die Auswertung von Daten, die wir Unternehmen und Therapeut:innen – die Grenzen sind längst fließend – über Smartphones und Wearables zutragen.
Unser Bewegungsradius erzählt zum Beispiel viel über unsere psychische Gesundheit, genau wie unsere Nutzung von Social Media. Das wissen die Tech-Unternehmen und bieten der Medizin ihre Dienste an. Die Googlization der Gesundheitsforschung nannte die Technikforscherin Tamar Sharon das schon 2016. Die Googlization betrifft auch die Therapeut:innen selbst, die ihre Untersuchungsmethoden der Datenanalyse unserer technischen Geräte anpassen – auch so entstehen KI-Therapeut:innen.
Keine Frage, dass AI Esther eine Anmaßung ist und kein Ersatz für ihr menschliches Pendant. Doch was, wenn das Software-Projekt Furmansky ganz einfach eine Aufgabe gegeben und so aus der Beziehungskrise geholfen hat? Auf der einen Seite zementieren Sprachmodelle Ungleichheit – davon sprach Futuristin Amy Webb auf der SXSW. Doch es gibt auch Grund zur Hoffnung, dass in Zukunft mehr Menschen wie Furmansky Software selbst entwickeln könnten, Stichwort: „formbare Software“. Durch ChatGPT ist es leichter, in natürlicher Sprache zu programmieren. Angesichts der Macht der Tech-Konzerne mag formbare Software vielleicht wie ein frommer Wunsch erscheinen – doch sie bietet zumindest die Chance, dass die digitale Medizin der Zukunft nicht uns formt, sondern wir sie.
von Lea Beiermann
Personal Growth
KI und Mental Health: Empathie aus der Dose?
Empathie ist die Fähigkeit, sich in andere Menschen einzufühlen. Und auch wenn sich eine Maschine natürlich nicht tatsächlich in Menschen einfühlen kann, so kann sie es zumindest glaubhaft simulieren. Das zeigt ein durchaus umstrittenes Experiment, von dem der Psychologe und Co-Founder der Mental Health Plattform Koko Rob Morris im Januar berichtete.
Die Plattform verbindet Hilfesuchende mit Freiwilligen, die sich per Chat mit ihnen austauschen und empathisch sind. Im Experiment stellte Koko den Freiwilligen die Hilfe von GPT-3 zur Verfügung. Die KI unterstützte 30.000 Hilfegesuche mit konkreten Formulierungen. Das Ergebnis: Die Antworten wurden signifikant positiver bewertet als die von rein menschlichen Gegenübern. Gleichzeitig reduzierte sich die Antwortzeit um 50 Prozent. Doch sobald die Nutzer:innen erfuhren, dass die empathischen Antworten von einer KI unterstützt wurden, funktionierte das Ganze nicht mehr. Die Conclusio von Morris: „Simulierte Empathie fühlt sich seltsam an – leer.“
Dieses Ergebnis ist äußerst spannend und sagt einiges über die sozialen Implikationen des aktuellen KI-Hypes aus. Doch abgesehen davon zeigt die durchaus fragwürdige Vorgehensweise in dem Experiment vor allem eines: Wenn wir das Potenzial dieser mächtigen Technologie für Gutes nutzen wollen, dann müssen wir transparent mit ihrem Einsatz umgehen. Dass dies auch im sensiblen Bereich Mental Health möglich ist, zeigt der Erfolg von Apps wie Wysa und Limbic.
Was glaubst du? Kann eine Maschine wirklich empathisch sein? Würdest du zum Beispiel ein KI-generiertes Kondolenzschreiben ablehnen?
von Finn Blug
Dive Deeper
Folge #10: SXSW Phantomsnack | Water Bucket Challenge | Künstliche Intimität (KI)
Miriam und Léa erleben beim Tech-Festival SXSW die Technik von morgen im Selbstversuch: Miriam probiert einen geisterhaften Snack, der nicht satt macht, sondern nur unseren Diätwahnsinn direkt ins Ohr und in die Zukunft trägt. Léa spielt eine transparente Drehorgel, bis das Instrument Wasser über sie ausschüttet – die 134 Liter, die ein Mensch in den Niederlanden an einem Tag verbraucht. Außerdem denken die beiden mit Esther Perel über KI nach: Künstliche Intimität.
mit Miriam Meckel & Léa Steinacker
Und zuletzt:
Ein Gruß aus Austin, Texas von Miriam, Léa – und Esther Perel:
Dies ist das Archiv unseres wöchentlichen Newsletters, dem Brief aus der Zukunft. Gelange hier zur Sammlung, um mehr zu entdecken.