Der Hype um Künstliche Intelligenz ist ungebrochen. KI-Forschung findet überwiegend in Unternehmen statt, nicht in unabhängiger Wissenschaft und Forschung. Das birgt Gefahren.
Es war einmal eine kleine, feine Forschungsorganisation, die unsere Zukunft besser machen wollte. Sie sollte auch für alle gleichermaßen zugänglich sein. Im Blogpost zur Gründung schrieb der Chefwissenschaftler, das Team wolle „Werte für alle schaffen und nicht für die Aktionäre“ und dass es zu diesem Zweck mit anderen in diesem Bereich „freiwillig zusammenarbeiten“ würde. Das ist einige Jahre her, für die Tech-Branche eine Ewigkeit.
OpenAI wurde 2015 als nicht kommerzielle Forschungseinrichtung gegründet, inzwischen ist es milliardenschwer. Microsoft ist 2019 für eine Milliarde Dollar eingestiegen und hat kürzlich noch mal zehn Milliarden nachgelegt. Einer aber ist gleich geblieben: der Chefwissenschaftler Ilya Sutskever, der vor acht Jahren die Offenheit gepriesen hatte. Doch in einem Interview sagte er nun: „Wir haben uns schlichtweg geirrt. […] Ich gehe fest davon aus, dass es in ein paar Jahren für jeden völlig klar sein wird, dass es nicht klug ist, KI als Open Source anzubieten.“
Diese 180-Grad-Wende hat mit Klugheit wenig zu tun. Klug wäre es, sich in diesen Tagen ratzfatz auf gewisse Standards der Transparenz für große Sprachmodelle zu verständigen. Denn die sich derzeit rasant entwickelnde Generative KI ist in vielerlei Hinsicht ein schwarzes Loch, eine „Blackbox“. So wäre zum Beispiel bei den Trainingsdaten mehr Offenheit wichtig, um die Systeme erklärbar zu machen. Sprachmodelle eignen sich nämlich als Desinformationsschleudern und können so durchaus gefährlich werden – als politisches „Long Covid“ für die Weltgesellschaft.
Es geht nicht um Klugheit. Es geht um Geld. Generative KI hat im Weltmarkt ein Monopoly der Billionen-Dollar-Aussichten losgetreten. Wer seine Systeme offenlegt, hat verloren. Das kann man den Erfindern und Betreibern nicht mal übel nehmen. Sie agieren nach den Regeln des Marktes. Nur der Name ist dann etwas irreführend. „ClosedAI“ müsste das Unternehmen jetzt eigentlich heißen.
Hinter dieser Frage der Transparenz steckt noch etwas anderes. Weil die Sprachmodelle immer größer werden, wächst auch der Finanzierungsbedarf. In einem der wichtigsten Innovations- und Entwicklungsfelder unserer Zeit, der Generativen KI, findet die Forschung daher ganz wesentlich nicht mehr in den Universitäten und Forschungsinstitutionen, sondern in Unternehmen statt.
Der „AI Index 2023“, den die Stanford-Universität gemeinsam mit einigen Technologieunternehmen herausgibt, vermerkt: „Viele Jahre lang hat die akademische Welt die Entwicklung von modernsten KI-Systemen angeführt, inzwischen hat die Industrie dezidiert übernommen.“ Die hat im Jahr 2022 32 bedeutende Modelle für maschinelles Lernen hervorgebracht. In der akademischen Welt waren es ganze drei.
Das ist nicht nur ein quantitatives Ungleichgewicht zuungunsten wissenschaftlicher Forschung. Es führt auch zu qualitativen Problemen. Denn die Anreize sind in der Unternehmenswelt anders gesetzt als in der Wissenschaft: geschlossen statt offen, proprietär statt interoperabel, Kommerz statt Gemeinwohl. Das Rattenrennen um die Vorherrschaft in einzelnen Marktsegmenten, beispielsweise bei der durch Chatbots veränderten Internetsuche, ist längst in vollem Gange. Die entwickelnden Unternehmen bringen die KI-Modelle also schnellstmöglich auf den Markt, ohne sie ausreichend prüfen zu können.
Gefahren für unsere Freiheit und demokratischen Prozesse
Die Folgen: Von 2021 auf 2022 hat die Zahl der „unerwünschten Zwischenfälle“ um das 26-Fache zugenommen. Dazu gehören unter anderem tödliche Fehler der Software in selbstfahrenden Autos, die fehlerhafte Identifikation von Straftätern, Wirtschaftsbetrug und Deepfakes.
Die übergeordnete Frage lautet: Welche Rolle werden Wissenschaft und Forschung an Universitäten und in anderen Forschungseinrichtungen künftig haben, wenn die Forschung in einem der wichtigsten Entwicklungsfelder von Unternehmen gemacht wird? Der Unternehmer und frühere Chefredakteur des Tech-Branchenmagazins „Wired“, Chris Anderson, hat diese Frage schon vor vielen Jahren beantwortet. In seinem Essay zum „Ende der Theorie und des wissenschaftlichen Arbeitens“ schreibt er: „Weg mit jeder Theorie des menschlichen Verhaltens, von der Linguistik bis zur Soziologie. […] Mit genügend Daten sprechen die Zahlen für sich selbst.“
Anderson wusste nichts von Generativer KI, aber er hatte genügend menschliche Vorhersagefähigkeit, um zu sehen, was nun vor unser aller Augen steht: Wozu noch Menschen in Theoriewissen, Hypothesenbildung, analytischen Fähigkeiten ausbilden, wenn die Arbeit durch KI geleistet werden kann? Wenn komplette Datensätze und Transaktionssets durch KI geprüft werden können, brauchen wir uns nicht mehr auf Stichproben zu stützen. Das wird nicht nur die Buchhalter, Analystinnen, Wirtschaftsprüfer bis ins Mark treffen, sondern auch die Grundüberzeugungen und -ansätze wissenschaftlicher Forschung. Auch als Rektorin einer Universität kann man dieser Tage schlecht schlafen.
Hier entsteht eine Welt auf einer neuen – wörtlich – Berechnungsgrundlage, die wir gerade nur erahnen können. Und es entsteht in Anlehnung an den ehemaligen US-Präsidenten Dwight D. Eisenhower ein „technologisch-industrieller Komplex“, der unabhängige Wissenschaft und Forschung verschwinden lässt. „Das Potenzial für die katastrophale Zunahme fehlgeleiteter Kräfte ist vorhanden und wird weiterhin bestehen. Wir dürfen es nie zulassen, dass die Macht dieser Kombination unsere Freiheiten oder unsere demokratischen Prozesse gefährdet“, hat Eisenhower 1961 gesagt. 2023 sollten wir uns mit der Neuinterpretation dieser Warnung beschäftigen.