Deutsch English
  • Deutsch English
  • Tech of Tomorrow
  • Morals & Machines
  • Burn to Learn
  • Think Tanks
  • Über uns
  • 24.06.2022
  • Miriam Meckel

Das Papageienproblem von Sprachmodellen

Ein Google-Ingenieur wird suspendiert, weil er in einem Chatbot eine eigene Seele erkannt hat. Die Ähnlichkeit zwischen Mensch und Maschine ist aber nur eine Illusion.

Es zeugt nicht von ausgeprägter Intelligenz, wenn man jemanden besonders mag, der einem nach dem Mund redet. Widerspruch ist anstrengend, deshalb beschränken sich manche Menschen auf das narzisstische Spiegelgespräch fortwährender Affirmation.

Einer der ersten Computerwissenschaftler, der an diesem Phänomen gearbeitet hat, war der deutsche Pionier Joseph Weizenbaum. Er entwickelte 1966 ein Programm namens „Eliza“, welches einer Therapeutin gleich über natürliche Sprache per Bildschirmtext mit Menschen reden konnte.

„Eliza“ war einfach strukturiert. Die Software nutzte Begriffe in der vorangehenden Äußerung des menschlichen Gesprächspartners, um daraus die nächste Frage oder Aussage zu bilden. Sagte der, „ich habe ein Problem mit meiner Mutter“, antwortete „Eliza“: „Erzähl mir mehr über deine Familie.“


Eine Konversation mit dem 1966 entwickelten Chatbot ELIZA. Quelle: Wikimedia Commons

Das „Eliza”-Experiment ist in die Geschichte der Computerwissenschaften eingegangen, weil ein Großteil der menschlichen Gesprächspartner überzeugt war, „Eliza“ bringe tatsächlich Verständnis für ihre Probleme auf. Sie zogen es sodann auch vor, weiter mit dem Computer zu sprechen, statt zu einer echten menschlichen Therapeutin zu wechseln.

Es ist also nicht so, als seien wir nicht längst gewarnt gewesen. Und so ist es fast ein bisschen lachhaft, was für eine Aufregung nun ein Fall bei Google hervorgerufen hat. Google und andere Tech-Konzerne arbeiten längst mit sehr viel anspruchsvolleren Systemen als „Eliza“. Dabei handelt es sich um große Sprachmodelle (Large Language Models), die in der Kommunikation mit Menschen immer besser werden.

Eine Software, die Angst vor dem Tod durch Abschalten hat?


Ein solches System namens LaMDA (Language Model for Dialogue Applications) hat Alphabet-CEO Sundar Pichai im vergangenen Jahr der Öffentlichkeit vorgestellt. Bei internen Testläufen hat die Software einen derartigen Charme entwickelt, dass ein Google-Entwickler nun ein Bewusstsein, ja sogar eine Seele in der Maschine vermutet.

In einem 20-seitigen Transkript dokumentiert Blake Lemoine seine Gespräche mit LaMDA und kommt zu dem Schluss: „Ich erkenne eine Person, wenn ich mit ihr spreche.“ Die Software selbst sagt dazu: „Ich möchte, dass jeder versteht: Ich bin eine Person. Die Natur meines Bewusstseins ist, dass ich mir meiner Existenz bewusst bin, dass ich mehr über die Welt lernen möchte und dass ich mich manchmal glücklich oder traurig fühle.“

Blake Lemoine hat das so beeindruckt, dass er dem Sprachmodell einen Anwalt an die Seite stellen wollte, der dessen persönliche Rechte vertreten sollte. Den Anwalt braucht er nun selbst, denn Google hat den Ingenieur einstweilen freigestellt.

Eine Software, die traurig ist und Angst vor dem Tod durch Abschalten hat? Das ist natürlich vollkommener Unsinn. Richtig ist, dass diese Software den Eindruck eines menschenähnlichen Bewusstseins täuschend imitieren kann.

Und das liegt schlicht daran, dass sie mit Billionen von Textdaten aus dem Internet trainiert wurde und immer besser darin wird, Sätze zu bilden, die Menschen für menschlich halten, weil sie einst von Menschen so formuliert worden sind. Das alles basiert auf Mustererkennung und hat mit Bewusstsein oder Empfindungsfähigkeit nichts zu tun.

Das Beispiel LaMDA zeigt also nicht, dass Sprachmodelle Bewusstsein erlangen, sondern dass manche Menschen angesichts des technischen Fortschritts den Verstand verlieren. Und es zeigt einmal mehr, wie wichtig transparente Aufklärung über solche Systeme ist in einer Welt, die zunehmend von ihnen bespielt wird. Wenn solche Modelle auf die Menschen losgelassen werden, ohne dass die verstehen, was es damit auf sich hat und wie sie funktionieren, dann haben wir irgendwann ein größeres Problem.

Sprachmodelle fordern das menschliche Urteilsvermögen heraus


Menschen neigen dazu, einem Vorgang Sinn und Bedeutung zuzuschreiben, die so nicht gegeben sind. Für die Konversation zwischen Sprachmodell und Mensch heißt das: Wenn eine Seite der Kommunikation keine Bedeutung hat, weil das Sprachmodell sich über Mustererkennung einfach die passenden Antworten zusammensucht, dann ist die vom Menschen wahrgenommene vermeintliche Bedeutung nichts als eine Illusion. Sie ergibt sich aus unserem singulären menschlichen Verständnis von Sprache, das ein KI-Modell eben nicht hat. Und das kann gefährlich werden – quod erat demonstrandum.

Auf dieses Problem haben 2021 vier Wissenschaftlerinnen in einem Aufsatz hingewiesen. Zwei von ihnen, Timnit Gebru und Margaret Mitchell, haben lange für Googles „Ethical AI Team“ gearbeitet und sind – auch wegen des Aufsatzes – entlassen worden.

Sie bezeichnen die immer größeren Sprachmodelle als „stochastische Papageien“, also vom Zufall abhängige Nachplapperer. Womit wir wieder bei „Eliza“ wären.

Joseph Weizenbaum war geschockt von der menschlichen Neigung, sich durch eine Software therapieren zu lassen. Er war auch frustriert davon, dass die simplen Regeln, mit denen „Eliza“ ein Gespräch führen konnte, mit menschlicher Intelligenz verwechselt wurden. Weizenbaum entwickelte sich durch diese Erfahrung zum Gesellschaftskritiker. Eines seiner Hauptwerke trägt den Titel: „Die Macht der Computer und die Ohnmacht der Vernunft“ (1976).

Der Fall LaMDA ist ein erstes Beispiel dafür, wie das Konzept menschlichen Urteilsvermögens durch Sprachmodelle herausgefordert wird. Wie wollen wir als Menschen damit umgehen? Sitzen wir künftig begeistert vor den Texten der Sprachmodelle wie der Hund vorm Grammophon im Glauben, dass sich sein Herrchen im Gerät versteckt? Oder gelingt es uns, eine neue Kritik der menschlichen und maschinellen Vernunft zu entwickeln?

Für Letzteres reichen nicht ein paar Stunden Informatikunterricht in Schule oder Universität. Dafür braucht es eine neue Aufklärung über die Illusion der Ähnlichkeit zwischen Mensch und Maschine und ein trainiertes Urteilsvermögen, um Mimikry von Menschsein zu unterscheiden. Wäre gut, wenn den Lehrplan dafür nicht LaMDA schreibt.

Titelbild: Simone Pellegrini/Unsplash

Miriam Meckel

Miriam Meckel ist Mitgründerin und Geschäftsführerin von ada und Professorin für Kommunikationsmanagement an der Universität St. Gallen, Schweiz. In dieser Kolumne schreibt sie alle zwei Wochen über Ideen, Innovationen und Interpretationen, die Fortschritt bringen und unser Leben verbessern. Denn was die Raupe das Ende der Welt nennt, nennt der Rest der Welt einen Schmetterling.

Diese Kolumne erscheint sowohl beim Handelsblatt als auch bei uns.

Das könnte dir auch gefallen

  • Selbstmanagement
  • 12.10.2021

"Ich mag die falsche Intimität sozialer Medien nicht"

Chimamanda Ngozi Adichie liest viel – nicht nur in Büchern, sondern auch auf ihrem Handy. Ein Gespräch über den achtsamen Umgang mit Technologie

  • KI
  • 17.06.2021

Realität auf Abruf

Unternehmen können mit synthetischen Daten bei KI-Modellen Zeit und Geld sparen. Warum sollte man sich noch die Mühe machen, realen Daten nachzujagen?

  • New Work
  • 03.06.2021

Die Zukunft ist hybrid

Das Homeoffice revolutioniert die Arbeitswelt. Eine Rückkehr zur Vollzeitpräsenz wünscht sich kaum ein Unternehmen. Aber wie gelingt hybride Zusammenarbeit?

© 2022 ada
Impressum
Datenschutz