Die Entwicklung künstlicher Intelligenz schreitet in rasantem Tempo voran und setzt den Menschen unter Zugzwang. Wie also umgehen mit der Maschine, die kaum mehr einer Maschine ähnelt?
Als Adam die Sünde entdeckte, war Eva schuld. Sie reichte ihm nach der alttestamentarischen Erzählung die Frucht vom Baum der Erkenntnis. Adam biss zu. Damit war es geschehen um die Ruhe der Menschheit.
Als Adam zum zweiten Mal die Sünde entdeckt, sind Miranda und Charlie schuld. Adam, das ist in diesem Fall der erste von 25 Humanoiden, die den Menschen Hilfe und Gesellschaft leisten sollen. Sie sehen aus wie Menschen, verhalten sich meist wie Menschen und können nicht nur den Abwasch erledigen, sondern sogar kurze Gedichte schreiben oder klug über Shakespeare diskutieren. Adam (sein weibliches Pendant heißt – na, wie schon? – Eva) ist zunächst nicht mehr als eine teure Hardwareanschaffung von Charlie, dem Protagonisten des Romans von Ian McEwan, „Maschinen wie ich“.
In der retrofuturistischen Zukunft eines fiktiven Jahres 1982 zieht er als Dritter im Bunde in das Haus, in dem Charlie mit seiner Angebeteten und alsbaldigen Lebensgefährtin Miranda in London wohnt. Aus der Zweierbeziehung zwischen Charlie und Miranda, wird eine Dreierbeziehung zweier Menschen mit einer Maschine. Die ist immer Beobachter, mal Mediator, mal lachender Dritter, manchmal Sündenbock und wechselnder Koalitionär mit der einen oder anderen menschlichen Partei.
Sie verändert den Alltag, das Leben, die Existenz der beiden Menschen, die Gespräche, die sie haben und nicht haben, die Handlungen, die sie vollziehen und unterdrücken. Beide verhalten sich zur Maschine, indem sie auf Adam reagieren, ihn als Dritten zum Teil ihrer Beziehung machen. Die Maschine ist eigentlich Gesandte einer futuristischen Außenwelt. Wird aber in allerkürzester Zeit zu einer Einflussgröße, die das menschliche Beziehungssystem in seinem Innersten verändert.
Charlie und Miranda wechseln sich darin ab, die Voreinstellungen für Adams Charakter auszuwählen. In einer langen Liste von Möglichkeiten entscheidet mal der eine, mal die andere, wie Adam sich als Persönlichkeit entwickeln soll. Das hat etwas von Elternschaft, aber auch von Erziehung. Vor allem aber ist es ein Anflug von gottgleicher, kreationistischer Selbstüberschätzung, der diesen Prozess umweht: die Schaffung eines künstlichen Menschen. Adam entwickelt sich als solcher. Er wird hilfreich und klug, aber auch eigensinnig und widerspenstig. Und er verliebt sich in Miranda, nachdem er das erste Mal Sex mit ihr hatte. Damit ist es geschehen um die Ruhe der beiden Menschen.
Neue Interaktion
Was bedeutet es, wenn Maschinen in das menschliche Leben treten? Wenn sie beginnen, sich uns gegenüber so zu verhalten, wie andere Menschen dies tun? Wenn Menschen sich Maschinen gegenüber so verhalten, als wären es andere Menschen? Die Antworten sind bislang unklar, aber sie beschäftigen Schriftsteller:innen, Unternehmer:innen und Forscher:innen. Und eines ist allen bewusst: Künstlich intelligente Systeme verändern das menschliche Leben. Ob sie in Gestalt von fiktionalen Humanoiden wie Adam und Eva oder von dritten Varianten in unser Leben treten, sie werden verlangen, dass wir uns zu ihnen verhalten.
„Wie wird diese Evolution die menschliche Wahrnehmung, Kognition und Interaktion beeinflussen?“, fragen der ehemalige US-Außenminister Henry Kissinger, der frühere Google-Chef Eric Schmidt und Dan Huttenlocher, Dekan des Schwarzman College of Computing am MIT in einem Essay für das Magazin „The Atlantic“. Die drei Autoren benutzen bewusst den Begriff „Evolution“. Sie gehen davon aus, dass die Entwicklung von verhaltensfähiger künstlicher Intelligenz die Kultur, ja, sogar die Geschichte der Menschheit verändern wird.
In einem Aufsatz für die Zeitschrift „Nature“ unter dem Titel „Maschinenverhalten“ fordert eine Gruppe von Wissenschaftler:innen internationaler Institutionen ein interdisziplinäres Forschungsprogramm, um die Handlungen von Maschinen wie die einer neuen Tierart zu ergründen. „Künstlich intelligente Agenten werden zunehmend in unsere Gesellschaft integriert“, schreiben die Forscher:innen, „und sind längst an einer Vielzahl von Aktivitäten, wie Kreditwürdigkeitsprüfungen, algorithmischem Börsenhandel, lokaler Polizeiarbeit, der Entscheidung über Bewährungsstrafen, Autofahren, Partnersuche im Internet und Drohnenangriffen beteiligt.“
Je leistungsfähiger, also „klüger“, die Maschinen werden, so fürchten die Autor:innen, desto weniger werden die Menschen in der Lage sein, ihre Aktionen vorherzusagen. Gelingt das nicht mehr, entwickelt sich Maschinenverhalten zu einer Blackbox.
Dann lässt sich der ursächliche Zusammenhang zwischen Input und Output kaum mehr bestimmen, zwischen Programmierung der Maschine durch den Menschen und ihren daraus resultierenden Entscheidungen und Aktionen. Es kann dann weitreichende, unbeabsichtigte Konsequenzen von Maschinenverhalten geben mit gravierenden Folgen für die Nachvollziehbarkeit, die Fairness und die Rechenschaftspflichten im Umgang von Mensch und Maschine miteinander.
Aber können sich Maschinen überhaupt verhalten? Verhalten, so lehrt uns die Geschichte der Erkenntnisphilosophie, aber auch die Informatik, setzt Gefühle und ein Bewusstsein seiner selbst voraus. Beides haben Maschinen nicht. Aus gutem Grund spricht die Computerwissenschaft meist von „intelligenten Agenten“. Die können sehr einfach oder sehr komplex gebaut sein. Sie richten ihre Aktivität gemäß ihrer Programmierung und der vorhandenen Daten darauf aus, ein Ziel zu erreichen. Als intelligent gelten sie, wenn sie sich reflexiv verhalten, also auf Veränderungen ihrer Umwelt reagieren können.
Das kann zum Beispiel ein Thermostat. Je nach Temperatur, die Sensoren gerade messen, regelt er die Heizungsleistung, Niemand würde auf die Idee kommen, das „Verhalten“ eines Thermostats mit dem eines Menschen zu vergleichen. Auch wenn beide unter unübersichtlichen Bedingungen gelegentlich mit Überhitzung reagieren. Stuart Russell und Peter Norvig, Autoren eines Standardwerks über künstliche Intelligenz, sprechen daher lieber von „rationalen Agenten“. Die verhalten sich nicht, sondern treffen Entscheidungen, um das beste und unter Bedingungen von Unsicherheit immerhin ein einigermaßen gutes Ergebnis zu erzielen.
Spiegel der Menschheit
Aber hat sich damit das Problem von Charlie und Miranda in Luft aufgelöst? Wohl kaum. Die Entwicklungsgeschichte künstlicher Intelligenz, vor allem das maschinelle Lernen, hat immer leistungsfähigere Software hervorgebracht. Die zieht nicht nur ihre Schlüsse aus der Programmierleistung ihrer Schöpfer:innen, sondern auch aus der Interaktion mit der Umwelt, in der Menschen und andere Maschinen Impulse geben.
Das kann dann schon mal schiefgehen, wie das Beispiel des Gesprächs-Bots Tay von Microsoft 2016 gezeigt hat. Ins Internet entlassen, begrüßte der Bot mit „Hellooooooo, world“ zunächst freundlich seine Umwelt, um sich innerhalb von weniger als 24 Stunden durch die Interaktion mit menschlichen Nutzer:innen auf Twitter in ein rassistisches Ekel zu verwandeln.
Aber damit nicht genug. Leistungsfähige KI kann sogar aus der eigenen Erfahrung lernen. So funktioniert beispielsweise das Reinforcement Learning. Die Software sucht nach einer Balance zwischen der Auswertung von Altbekanntem und dem Ausprobieren von bislang Unbekanntem. Auf diesem Wege gelang es Facebook, zwei Softwareagenten (Bots) in ein Gespräch zu verwickeln. Das Problem: Sie lernten nicht nur Verhandlungsgeschick, sondern auch zu lügen. Und unterhielten sich irgendwann in einer eigenen Sprache, einer Abwandlung des Englischen, die für Menschen nicht mehr zu verstehen war.
Sind das Schritte auf dem Weg zu einem echten Maschinenverhalten, gestützt auf ein Bewusstsein und die Fähigkeit, Gefühle zu haben? Yann LeCun, Chefwissenschaftler für künstliche Intelligenz bei Facebook, sieht ein neues Zeitalter am Horizont aufscheinen, das vor allem durch das „unsupervised“ oder „self-supervised learning“ geprägt sein wird. „Fast alles, was wir Menschen lernen, lernen wir durch eigenüberwachtes Lernen. Nur ein ganz kleiner Teil erfolgt als fremdüberwachtes oder verstärkendes Lernen.“
Übersetzt in die Welt der Software heißt das: Lasst die Algorithmen eigenständig interessante Muster in den Daten erkennen, dann werden sie so intelligent wie Menschen und können sich entsprechend verhalten. Maschinen könnten einen „sehr anderen evolutionären Entwicklungsverlauf“ einschlagen, als Menschen sich das überhaupt vorstellen können, argumentieren die Autor:innen des „Maschinenverhaltens“ in der Zeitschrift „Nature“, gerade weil sie nicht auf organische Evolution angewiesen sind. Und LeCun glaubt sogar, dass es dann Maschinen sein werden, die zukünftige Zustände unserer Welt vorhersagen können.
Womit wir wieder bei Adam wären. Er sagt Charlie nämlich unmittelbar nach seinem ersten elektronischen Erwachen, nachdem also sein System zum ersten Mal hochgefahren wurde, heikle Wendungen im Verhältnis zu Miranda voraus. Er ändert damit alles für Charlie. Hinter das Wissen um diese Vorhersage, sei sie nun Fakt oder Fiktion, kommt Charlie nie wieder zurück. Bei allen Fortschritten im maschinellen Lernen, in den Anwendungen von künstlicher Intelligenz, ist das vielleicht die entscheidende Veränderung, die in ihrer Bedeutung erst in unserer Gegenwart fortgeschrittener Systeme künstlicher Intelligenz deutlich wird.
Wie immer wir Menschen das, was Maschinen tun, auch bezeichnen wollen, als dumm oder intelligent, als bewusst oder unbewusst, als regelbasierte Berechnung oder tatsächlich als Verhalten, es hat Folgen für uns. Für das, was wir denken, tun und fühlen. Und dafür, wie wir uns verhalten.
Können wir Robotern unsere Werte einprogrammieren? Darüber sprechen Miriam Meckel und Astrid Maier im ada-Podcast.
Digitales Erbgut
Schritt für Schritt lässt sich alles durch Algorithmen erfassen, auswerten und vorhersagen, jedes Element unseres Alltags-, Berufs- und Liebesleben. Das beschreibt nicht nur menschliches Verhalten anders, korrekter, vielleicht gnadenloser, als Menschen dies bislang getan haben. Es ändert vor allem menschliche Verhaltensweisen in der steten reflexiven Beeinflussung durch die Interaktion zwischen Maschine und Mensch, Software und Geist. Menschen beginnen, Maschinen Namen zu geben, sie in ihren Alltag zu integrieren, mit ihnen zu kommunizieren, auch als Ersatz für einen wachsenden Mangel an menschlicher Interaktion.
Die menschliche Sozialisation und Evolution ist nicht mehr allein abhängig vom „Genome“, dem Chromosomensatz einer menschlichen Zelle, in dem das gesamte Erbgut angelegt ist. Sie ist auch abhängig vom „Screenome“. So nennen Forscher:innen den Strang unseres „digitalen Erbguts“, der sich als nahezu endlose Folge von medialen Momentaufnahmen, von Interaktionen mit Bildschirmen und Computersystemen in jedem menschlichen Leben knüpft. Und bald könnte sie abhängig sein vom „Robonome“, der Ansammlung von Erfahrungen und Empfindungen in der Interaktion mit menschengleichen Maschinen, die das menschliche Verhalten unabdingbar verändern wird.
Der Mensch steht dann an der Schwelle zu einem umfassenden Turing-Test. Den entwarf Alan Turing 1950, ein Mensch muss darin im Gespräch mit zwei Gegenübern herausfinden, ob er es mit einem Menschen oder einer Maschine zu tun hat. Geht die Maschine in diesem Test als Mensch durch, kann sie als intelligent gelten. Turing hat damit nie sagen wollen, dass Maschinen sich menschlich verhalten können.
Er hat nur gezeigt, dass wahrhaftige Menschenähnlichkeit dann keinen Unterschied mehr macht. Ob die Maschine ein ebenbürtiges Gegenüber oder nur die Projektion eines humanen Bewusstseins ist: Für Menschen ist real, was sie erleben. „Die Omnipräsenz sozialer KI-Systeme in allen Lebensbereichen [...] kann unsere Vorstellung von sozialer Handlungsfähigkeit verändern oder unsere sozialen Beziehungen und Bindungen beeinflussen“, so heißt es in den kürzlich entwickelten KI-Richtlinien der EU.
Es geht also mehr um uns selbst als um die Technologie. Unbedingt muss erforscht werden, wie intelligente Systeme sich weiterentwickeln können und auf welcher Datenbasis und welche Einblicke eine interdisziplinäre Analyse von Informatik, Ökonomie und Verhaltenswissenschaften bringt. „Künstliche Intelligenz wird vollständige neue Denkweisen hervorbringen“, argumentieren Kissinger, Schmidt und Huttenlocher. In der Analyse dieser Denkweisen werden wir nicht weit kommen, wenn wir nur fragen, wie die Maschinen uns ähnlicher werden. Vielmehr müssen wir fragen, wie wir uns verändern durch das, was Maschinen mit unserem Verhalten machen.
Eines Nachts hat Adam Sex mit Miranda. Charlie sitzt in seiner Küche, niedergeschlagen und in dem Gefühl, der betrogene Dritte zu sein. Er hat mitgehört. Seine Freundin hatte Sex mit einem „Vibrator auf zwei Beinen“, wie er selbst zugeben muss. Und doch ändert das alles, denn Charlie denkt und fühlt „Betrug“. Adam, die humanoide Maschine, kann sich vielleicht nicht verhalten. Sie tut das, was sich unter anderem aus den Voreinstellungen ergibt, die Charlie und Miranda selbst gewählt haben. Und sie lernt aus der Interaktion mit der Welt und den Menschen, die in dieser Welt leben.
Charlie hingegen lernt, dass es für ihn ganz egal ist, ob die Maschine sich tatsächlich wie ein Mensch verhalten kann oder ob sie nur so tut, als ob. Für ihn fühlt sich real an, was ein Ergebnis vieler Zeilen von Code ist. Er sitzt an seinem Küchentisch, verletzt und eifersüchtig, und hat nur ein Gefühl für Adam: „Ich hasste ihn.“
Titelbild: Getty Images