Europa – Am 10. März 2026 vollzog einer der drei maßgeblichen Begründer der modernen Künstlichen Intelligenz einen Schritt, der die globale Technologiebranche nachhaltig erschütterte. Yann LeCun, der über einen Zeitraum von zwölf Jahren als leitender KI-Wissenschaftler für den Technologiekonzern Meta tätig war und maßgeblich das Feld des Deep Learning erschuf, gab die Gründung seines neuen Unternehmens AMI Labs bekannt.
Der Wissenschaftler, der im Jahr 2018 gemeinsam mit Geoffrey Hinton und Yoshua Bengio mit dem renommierten Turing-Award ausgezeichnet wurde, sicherte sich für sein Vorhaben eine finanzielle Ausstattung von 1,03 Milliarden US-Dollar. Diese Summe markiert die größte Seed-Finanzierungsrunde, die jemals auf dem europäischen Kontinent verzeichnet wurde. Bemerkenswert ist dabei die Struktur des jungen Unternehmens: Obwohl AMI Labs erst seit vier Monaten existiert, lediglich zwölf Mitarbeiter beschäftigt und bislang über keinerlei marktreifes Produkt verfügt, wird es bereits mit 3,5 Milliarden US-Dollar bewertet.
Die primäre Mission dieser Neugründung besteht darin, den Nachweis zu erbringen, dass sich die gesamte gegenwärtige KI-Industrie auf einem technologischen Irrweg befindet. In öffentlichen Stellungnahmen ließ LeCun verlauten, dass die vorherrschende Annahme, man könne die Fähigkeiten großer Sprachmodelle so weit ausbauen, bis sie das Niveau menschlicher Intelligenz erreichten, vollkommener Unsinn sei. Mit dieser fundamentalen Kritik positioniert sich der Pionier frontal gegen die dominierenden Entwicklungsansätze, die derzeit die globalen Investitionsströme lenken.
Fundamentale Kritik an großen Sprachmodellen
Derzeitige Systeme wie ChatGPT von OpenAI, Claude von Anthropic oder Gemini von Google bilden das Rückgrat einer Industrie, deren kumulierte Marktbewertung die Grenze von einer Billion US-Dollar überschreitet. LeCun prognostiziert jedoch, dass diese Systeme niemals eine tatsächliche menschliche Intelligenz erlangen werden. Seine Argumentation basiert auf einer tiefgreifenden technischen Differenzierung darüber, wie der Begriff der Intelligenz überhaupt definiert wird.
Große Sprachmodelle erwerben ihre Fähigkeiten, indem sie gigantische Textmengen analysieren und darauf trainiert werden, das jeweils nächste Wort innerhalb eines Satzes statistisch vorherzusagen. Durch diesen Prozess entwickeln sie zwar eine erstaunliche linguistische Kompetenz, die es ihnen ermöglicht, komplexe Artikel zu verfassen, abstrakte Konzepte zu erläutern und philosophische Diskurse zu führen, doch laut LeCun hat dies nichts mit wahrem Verständnis zu tun.
Ein Sprachmodell könne zwar fehlerfrei über die physikalischen Gesetze der Schwerkraft schreiben, ohne jedoch das Konzept der Schwerkraft jemals wirklich begriffen zu haben. Der Wissenschaftler vergleicht diesen Zustand mit einem Schüler, der Lehrbücher lediglich auswendig gelernt hat, ohne jemals eigene praktische Experimente durchgeführt zu haben. Da diesen Systemen jegliche physische Erfahrung in der realen Welt fehlt, neigen sie zu sogenannten Halluzinationen, bei denen sie Fakten erfinden. Ihnen mangelt es an grundlegendem menschlichem Hausverstand, wodurch sie nicht in der Lage sind, selbst simpelste physikalische Phänomene korrekt zu antizipieren.
Die technologische Alternative durch Weltmodelle
Als technologischen Gegenentwurf zu den sprachbasierten Systemen präsentiert LeCun das Konzept der sogenannten World Models. Bei der offiziellen Vorstellung von AMI Labs betonte er, dass echte Intelligenz ihren Ursprung nicht in der Sprache, sondern in der physischen Interaktion mit der Welt habe. Anstatt ihr Wissen ausschließlich aus geschriebenen Texten zu extrahieren, sollen diese Weltmodelle einen Lernprozess durchlaufen, der dem von Kleinkindern ähnelt. Durch die kontinuierliche Beobachtung der physischen Umgebung sollen sie ein internes, strukturiertes Modell davon aufbauen, wie die Realität funktioniert.
Dieser Ansatz zielt darauf ab, dass die Systeme fundamentale Ursache-Wirkungs-Prinzipien verinnerlichen und ein Gespür für physikalische Gesetzmäßigkeiten entwickeln. Auf diese Weise sollen sie genau jenen gesunden Menschenverstand erwerben und Dinge als offensichtlich erkennen, die für herkömmliche Sprachmodelle derzeit noch unsichtbar sind. Die technologische Basis für dieses ehrgeizige Vorhaben bildet die sogenannte JEPA-Architektur, was für Joint Embedding Predictive Architecture steht. LeCun hatte diese spezifische Architektur bereits während seiner Zeit bei Meta entwickelt und im Jahr 2022 wissenschaftlich publiziert. Im Gegensatz zu generativen Modellen, die versuchen, jedes einzelne Pixel eines Bildes vorherzusagen, ist JEPA darauf ausgelegt, abstrakte Repräsentationen und die tieferliegenden, unsichtbaren Regeln zu erlernen, welche die physische Welt determinieren.
Architektur und praktische Anwendungsfelder
Die praktische Relevanz und der fundamentale Unterschied zwischen großen Sprachmodellen und Weltmodellen manifestieren sich besonders deutlich in industriellen und physischen Anwendungsbereichen. Ein klassisches Sprachmodell ist durchaus in der Lage, eine detaillierte theoretische Anleitung zum Wechseln eines Autoreifens zu generieren. Es scheitert jedoch zwangsläufig an der physischen Ausführung, da es die räumlichen und materiellen Gegebenheiten nicht begreift. Ein World Model hingegen verfügt über das notwendige physikalische Grundverständnis, um solche Handlungen theoretisch und praktisch in robotische Befehle umzusetzen.
Die potenziellen Einsatzgebiete dieser neuen Technologie sind weitreichend und umfassen hochkomplexe Sektoren. In der Robotik könnten Haushaltsroboter entwickelt werden, die ein intuitives Verständnis für die Handhabung unterschiedlicher physischer Objekte besitzen. Im Bereich des autonomen Fahrens sollen Systeme entstehen, die das Verhalten anderer Verkehrsteilnehmer präzise vorausberechnen können. Die industrielle Fertigung könnte durch Künstliche Intelligenz revolutioniert werden, die physische Produktionsprozesse eigenständig plant und optimiert. Zudem eröffnen sich in der Luft- und Raumfahrt neue Möglichkeiten für komplexe Simulationen, die kontinuierlich aus realen Umweltdaten lernen und sich anpassen.
Gigantische finanzielle Wetten auf die Zukunft
Sollte sich LeCuns theoretischer Ansatz als korrekt erweisen, würde dies bedeuten, dass Branchenriesen wie OpenAI mit einer Bewertung von 730 Milliarden US-Dollar, Anthropic mit 380 Milliarden US-Dollar sowie Technologiekonzerne wie Microsoft und Google massiv in eine Sackgasse investieren. Liegt LeCun jedoch falsch, werden die großen Sprachmodelle ihren Weg zur allgemeinen künstlichen Intelligenz fortsetzen. In diesem Szenario würden zukünftige Iterationen wie GPT-6 oder GPT-7 die erhoffte technologische Revolution herbeiführen, während Weltmodelle lediglich eine Nischenanwendung für die Robotik blieben und LeCuns Milliardeninvestition verloren ginge.
Der globale Markt hat sich bereits deutlich positioniert. Neben den Bewertungen von über einer Billion US-Dollar fließen immense Summen in die digitale Infrastruktur und Rechenleistung. OpenAI sicherte sich unlängst einen Vertrag mit dem Pentagon, nachdem sich Anthropic aus diesem militärischen Bereich zurückgezogen hatte. Google investiert weiterhin Milliarden in sein Projekt Gemini, während Microsoft seine finanziellen Aufwendungen für neue Rechenzentren kontinuierlich verdoppelt. Dennoch formiert sich ein starker Gegenpol: Neben AMI Labs mit seiner Bewertung von 3,5 Milliarden US-Dollar repräsentiert auch das Unternehmen World Labs von Fei-Fei Li mit einer Bewertung von 5 Milliarden US-Dollar diese alternative technologische Wette. Die Investorenliste dieser Projekte umfasst namhafte Akteure wie Bezos Expeditions, Nvidia, Samsung, Toyota Ventures und Temasek, deren strategische Anlageentscheidungen in der Branche hohes Gewicht haben.
Der strategische Bruch mit dem Meta Konzern
Eine besondere Ironie dieser industriellen Entwicklung liegt in der Positionierung von Meta. Das Unternehmen, das seinen profiliertesten Wissenschaftler verloren hat, investiert nun gezwungenermaßen in beide technologischen Richtungen. LeCun verließ den Konzern Ende des Jahres 2025, da es zu unüberbrückbaren Differenzen mit Mark Zuckerberg über die massive Fokussierung auf große Sprachmodelle gekommen war. Gegenüber der Wirtschaftspresse erklärte LeCun damals, dass er seine technologische Vision außerhalb der Konzernstrukturen von Meta schneller, kostengünstiger und qualitativ hochwertiger realisieren könne.
Die aktuelle Marktsituation birgt jedoch ein strukturelles Paradoxon, auf das Analytiker immer wieder hinweisen. Große Sprachmodelle funktionieren bereits in der Gegenwart, generieren unmittelbare Umsätze und weisen einen klar definierten Wachstumspfad auf. Die Erforschung und Entwicklung von Weltmodellen erfordert hingegen noch Jahre intensiver Grundlagenforschung und hat zum jetzigen Zeitpunkt noch kein einziges vermarktbares Produkt hervorgebracht. Diese zeitliche Diskrepanz macht die Investition in World Models zu einem strategischen Spiel, das enorme finanzielle Ausdauer erfordert.
Philosophische Dimensionen der verkörperten Kognition
Die fachliche Auseinandersetzung zwischen LeCun und den Befürwortern der Sprachmodelle reaktiviert einen tiefgründigen philosophischen Diskurs über die Frage, ob Intelligenz überhaupt ohne physischen Körper existieren kann. Andy Clark, ein renommierter theoretischer Vordenker im Bereich der verkörperten Kognition, argumentiert seit Jahrzehnten, dass Intelligenz keine abstrakte Rechenoperation sei. Vielmehr handle es sich um einen erweiterten Geist, der sich vom Gehirn über den Körper bis in die physische Umwelt erstrecke. Nach dieser Theorie denken intelligente Wesen nicht passiv über die Welt nach, sondern sie denken innerhalb der Welt und nutzen ihren Körper als essenzielles kognitives Werkzeug.
Große Sprachmodelle werden in diesem Kontext als körperlose Gehirne betrachtet, die zwar theoretisches Faktenwissen über Hunde akkumulieren können, jedoch niemals die emotionale und physische Zuneigung eines Tieres gespürt haben. Diese fundamentale Kritik reicht bis in die 1970er Jahre zurück. Hubert Dreyfus, ein Philosoph, der an Instituten wie dem MIT und in Berkeley lehrte und als früher Skeptiker der Künstlichen Intelligenz galt, warnte bereits in seinem 1972 veröffentlichten Werk davor, dass Maschinen blind bleiben würden, solange sie nicht physisch mit der Realität interagieren.
Dreyfus griff die damals vorherrschende Prämisse an, Intelligenz sei lediglich die Manipulation von abstrakten Symbolen, und definierte sie stattdessen als aktive Verstrickung mit der Welt. Fünf Jahrzehnte später vertritt LeCun exakt denselben Standpunkt. Sollte ihm die Historie recht geben, erwirbt er mit seinem Milliardenbudget nicht primär Softwarecode, sondern gewissermaßen einen physischen Körper für die Künstliche Intelligenz. Die Lösung für wahre maschinelle Intelligenz könnte somit nicht in den Rechenzentren der Technologiegiganten liegen, sondern in dem simplen Prozess, bei dem ein Kleinkind einen Ball fallen lässt und völlig ohne sprachliche Erklärung lernt, wie die Schwerkraft funktioniert.