In diesem Brief aus der Zukunft geht es um Moore's Law // KI-Sprachmodelle // Shift Happens #11.
Der dänische Physiker Niels Bohr soll einmal gesagt haben, dass es schwer sei, Vorhersagen zu treffen, vor allem, wenn sie die Zukunft betreffen. Bohr beschäftigte sich lange damit, wie unvorhersehbar sich kleinste Teilchen verhalten. Doch das Zitat wird auch vielen anderen zugeordnet. Der Spruch über die Ungewissheit von Vorhersagen hat scheinbar auch einen ungewissen Ursprung – und hält Menschen natürlich nicht davon ab, Vorhersagen zu treffen. Vor allem treffen diejenigen gern Vorhersagen, die an neuesten Technologien arbeiten und ihrer Zeit so weit voraus scheinen, dass sie die Zukunft schon im Rückspiegel sehen.
Mit Gordon Moore, Mitgründer von Intel, ist vor etwa einer Woche einer der bedeutendsten Technik-Vorhersager - die prominentesten sind Männer - gestorben. Sein Mooresches Gesetz, formuliert 1965, besagt, dass sich die Anzahl der Transistoren auf einem Computerchip etwa alle 18-24 Monate verdoppelt. Das bedeutet, dass Computer immer kleiner und leistungsfähiger werden, und hat sich als erstaunlich genau erwiesen. Doch Technikhistoriker:innen haben auch gezeigt, dass Moores Gesetz zu einer selbsterfüllenden Prophezeiung wurde. Um das Gesetz wahr werden zu lassen, war eine umfassende Mobilisierung von Ressourcen nötig: Geld, Material und Menschen, die das Wachstum der Prozessorleistung erst ermöglichten.
Moores Gesetz sagt daher mehr über die Zeit aus, in der es entstanden ist – eine Zeit der Kommerzialisierung von Wissenschaft – als über die Zukunft. Das gilt auch für andere bekannte Vorhersagen. Da wäre Bob Metcalfe, seit wenigen Tagen Turing-Award-Preisträger, der angesichts des grotesken Wachstums des Internets 1995 seinen Untergang vorhersagte. Da wäre außerdem Chris Andersons Long-Tail-Theorie, die 2004 im E-Commerce eine goldene Zukunft für Nischenprodukte sah und noch nach Tech-Optimismus duftete. Eli Parisers Filter-Bubble-Theorie, die die Polarisierung der öffentlichen Internetmeinung beschreibt, klang 2011 schon ganz anders.
Auch wenn die Bilanz dieser Vorhersagen gemischt ist, nehmen sie nicht ab – im Gegenteil. Während alle Welt gerade auf Sprachmodelle schaut und abwechselnd den Untergang von Bildung, Jobs oder der menschlichen Kreativität beschwört, werden mit Machine Learning pausenlos Vorhersagen getroffen, viele davon mit gravierenden Auswirkungen auf unsere Gegenwart. Es gibt ein weiteres Zitat, das sich wahlweise Abraham Lincoln, Ökonom Peter Drucker oder Informatiker Alan Kay zuschreiben lässt: „Die beste Methode, die Zukunft vorherzusagen, besteht darin, sie zu gestalten.“ Auch hier könnte eine Gesetzmäßigkeit vorliegen.
von Lea Beiermann
Personal Growth
KI-Sprachmodelle: Moore’s Law Reloaded?
Die rasante Entwicklung von Rechenleistung, wie sie Gordon Moore in seinem Leitsatz formulierte, erinnert an einen anderen technologischen Wettlauf, den wir aktuell erleben: Die Entwicklung von KI-Sprachmodellen, sogenannten Large Language Models (LLMs). Diese KI-Modelle bilden die Grundlage für Anwendungen wie ChatGPT und bestehen aus einer riesigen Menge an Datenpunkten. Je mehr Parameter ein Modell hat, desto besser – das schien lange zu gelten. Entsprechend rasant ist die Größe der Modelle in den vergangenen Jahren angestiegen: Während Googles Modell BERT 2018 mit 340 Millionen Parametern aufwartete, soll OpenAls kürzlich erschienenes GPT-4 eine Billion Datenpunkte umfassen.
Doch obwohl die Größe eines Modells zwar grundsätzlich mit seiner Leistung korreliert, sind immer mehr Parameter auch nicht unbedingt sinnvoll, wie Julien Simon, Chief Evangelist bei der Open-Source-Plattform Hugging Face, bereits 2021 feststellte. Analog zum absehbaren Ende von Moores Gesetzmäßigkeit seien wir bald an einem Punkt, an dem geringe Verbesserungen die zusätzlichen Kosten, höhere Komplexität und den immensen ökologischen Fußabdruck kaum rechtfertigen würden.
Zwar haben sich seitdem ganz neue Use Cases für die Technologie ergeben, doch die Kernbotschaft könnte kaum aktueller sein: Wenn generative KI-Anwendungen bald in jedes Tool integriert werden sollen, rückt die Frage wirtschaftlicher und ökologischer Verhältnismäßigkeit noch viel stärker in den Vordergrund. Dass es auch anders geht, zeigen die Modelle LLaMA von Meta oder Chinchilla von Deepmind. Sie weisen zwar deutlich weniger Parameter auf, reichen aber aufgrund hochwertigerer Trainingsdaten an die Leistung datenintensiver Konkurrenzmodelle heran.
von Finn Blug
Dive Deeper
Folge #11: Adele | Zeitpolitik | Beethoven
In der elften Folge von #ShiftHappens springen Miriam und Léa zwischen den Zeiten: Erst nehmen uns die beiden mit zu einem Konzert in Las Vegas, wo sie einer der größten Pop-Stimmen der Gegenwart lauschen durften – Adele. Zurück in Europa beschäftigt Miriam und Léa nicht nur der Wechsel der Zeitzone, sondern auch die Sommerzeit. Außerdem geht es um ein jahrhundertealtes Haar, das nicht nur ganz neue Erkenntnisse zum Tod von Ludwig van Beethoven zutage brachte, sondern auch ein dunkles Familiengeheimnis.
mit Miriam Meckel & Léa Steinacker
Menschliche Dummheit ist systemrelevant
Die Bankenkrise zeugt mal wieder von Inkompetenz im Management und mangelnder Aufsicht. Das „Systemrisiko“ unserer Welt ist nicht ein einzelnes Unternehmen, es ist der Mensch.
von Miriam Meckel
Und zuletzt:
Gordon Moore erklärt Moore’s Law – das zwar nach ihm, aber nicht von ihm benannt wurde
Dies ist das Archiv unseres wöchentlichen Newsletters, dem Brief aus der Zukunft. Gelange hier zur Sammlung, um mehr zu entdecken.