Yann LeCun, Mit­be­grün­der der mod­er­nen KI, ver­lässt Meta und attack­iert das gesamte Large-Lan­guage-Mod­el-Par­a­dig­ma: Sys­teme wie Chat­G­PT oder Claude kön­nten niemals zu echter kün­stlich­er Intel­li­genz führen, weil sie nicht pla­nen kön­nen und keine Welt­mod­elle besitzen. Seine Kri­tik offen­bart mehr als nur tech­nis­che Lim­i­ta­tio­nen – sie zeigt eine sys­temis­che Block­ade, in der sich die KI-Indus­trie durch Pfad­ab­hängigkeit­en selb­st gefan­gen hält. Doch LeCuns Posi­tion ist umstrit­ten: Andere Forsch­er ver­weisen auf mess­bare Fortschritte, prak­tis­chen Nutzen und unter­schätzte Emer­genz-Effek­te. Während Mil­liar­den in die Skalierung von Sprach­mod­ellen fließen, stellt sich die Frage: Führt diese Investi­tion zu Durch­brüchen oder in eine Sack­gasse? Für Mul­ti-Agen­ten-Sys­teme im Finanzwe­sen und E‑Commerce bedeutet das fun­da­men­tale Unsicher­heit: Sind heutige “AI-Agen­ten” echte autonome Sys­teme oder glo­ri­fizierte Chat­bots? Ein Essay über selb­stre­f­er­en­tielle Fall­en, empirische Fortschritte, struk­turelle Trägheit und die Frage, wie man strate­gisch han­delt, wenn nie­mand weiß, welch­es Par­a­dig­ma gewin­nt.


Die fünf zen­tralen Erken­nt­nisse

1. Sys­temis­che Block­ade durch Pfad­ab­hängigkeit­en. Die KI-Indus­trie hat sich durch mas­sive Investi­tio­nen in LLM-Infra­struk­tur (Hun­derte Mil­liar­den Dol­lar) selb­st in eine selb­stre­f­er­en­tielle Falle manövri­ert. Tech­nis­che, per­son­elle und reg­u­la­torische Lock-Ins erschw­eren einen Par­a­dig­men­wech­sel erhe­blich – unab­hängig davon, ob er tech­nisch nötig wäre. Das Sys­tem definiert “Erfolg” nach eige­nen Kri­te­rien und blendet externe Real­ität zunehmend aus.

2. Aktuelle “KI-Agen­ten” simulieren Hand­lungs­fähigkeit, besitzen sie aber nicht Was heute als “agen­tic AI” ver­mark­tet wird, sind LLM-Wrap­per mit Skript-Logik, keine autonomen Sys­teme mit echt­en Welt­mod­ellen. Sie haben keine: Interne Repräsen­ta­tion von Zustän­den und Kausalzusam­men­hän­gen Fähigkeit zur vorauss­chauen­den Pla­nung Robustes coun­ter­fac­tu­al rea­son­ing The­o­ry of Mind für Mul­ti-Agen­ten-Inter­ak­tion Imp­lika­tion: Für kri­tis­che Anwen­dun­gen (Finanzwe­sen, autonome Sys­teme, Medi­zin) sind aktuelle “Agen­ten” nicht geeignet – sie simulieren Intel­li­genz, demon­stri­eren sie aber nicht.

3. Die empirische Frage ist offen: Führt Skalierung zu qual­i­ta­tiv­en Sprün­gen? LeCuns Posi­tion: Nein – LLMs kön­nen architek­turell keine echte Pla­nung und kausales Ver­ständ­nis entwick­eln, egal wie groß sie wer­den. Gegen­po­si­tion (Krish­nan, Scal­ing-Opti­mis­ten): Ja – empirische Fortschritte von GPT‑3.5 zu GPT‑4 zu o1 zeigen mess­bare Verbesserun­gen bei Rea­son­ing, möglicher­weise emergieren weit­ere Fähigkeit­en. Sta­tus: Die Frage ist empirisch, nicht philosophisch. Sie wird sich in den näch­sten 2–3 Jahren beant­worten, wenn die näch­ste Gen­er­a­tion von Mod­ellen zeigt, ob Verbesserun­gen weit­erge­hen oder asymp­to­tisch gegen ein Lim­it laufen.

4. Drei Szenar­ien sind möglich – mit unter­schiedlichen strate­gis­chen Imp­lika­tio­nen Szenario 1 – Gradu­elle Evo­lu­tion (45%): LLMs wer­den inkre­mentell mit Welt­mod­ell-Kom­po­nen­ten erweit­ert, Hybrid-Architek­turen entste­hen. Beste­hende Infra­struk­tur bleibt nutzbar, fun­da­men­tale Lim­i­ta­tio­nen wer­den gradu­ell gemildert. Szenario 2 – Dis­rup­tiv­er Bruch (25%): Durch­bruch bei alter­na­tiv­en Architek­turen macht LLMs obso­let. Mas­sive Kap­i­talver­nich­tung, neue Gewin­ner entste­hen. Chi­na kön­nte als Late Mover prof­i­tieren. Szenario 3 – Par­al­lele Wel­ten (30%): LLMs dominieren kom­merzielle Anwen­dun­gen (“good enough”), echte autonome Agen­ten bleiben Spezial­do­main. Tech­nol­o­gis­che Bifurka­tion in zwei sep­a­rate Ökosys­teme. Wahrschein­lich­ste Entwick­lung: Kom­bi­na­tion – kurzfristig Szenario 1, mit­tel­fristig Rich­tung Szenario 3, mit geringer aber real­er Chance auf Szenario 2.

5. Epis­temis­che Demut ist die strate­gisch klüg­ste Hal­tung Die wichtig­ste Ein­sicht: Wir wis­sen nicht, wer Recht hat – und das zu akzep­tieren ist ehrlich­er als vorschnelle Gewis­sheit­en. Falsche Strate­gie: Auf ein Szenario wet­ten und alles darauf set­zen. Richtige Strate­gie: Robus­theit gegenüber ver­schiede­nen Szenar­ien entwick­eln: Diver­si­fika­tion: Port­fo­lio-Ansatz in KI-Forschung und ‑Anwen­dung Flex­i­bil­ität: Reversible Entschei­dun­gen, Pfad­ab­hängigkeit­en min­imieren Prag­ma­tismus: LLMs nutzen wo sie Wert schaf­fen, par­al­lel Alter­na­tiv­en erforschen Kri­tis­che Eval­u­a­tion: PR-Schere erken­nen, aber nicht in Zynis­mus ver­fall­en Für Deutschland/Europa: Nicht blind skalieren (USA-Mod­ell), nicht ignori­eren (Tech­nikskep­sis), son­dern strate­gisch diver­si­fizieren und struk­turell flex­i­bel bleiben.

Faz­it in einem Satz LeCuns Kri­tik offen­bart reale sys­temis­che Block­aden und tech­nis­che Lim­i­ta­tio­nen, aber die Sit­u­a­tion ist kom­plex­er und offen­er als ein sim­ples “LLMs sind eine Sack­gasse” – die klüg­ste Hal­tung ist nicht zu wis­sen wer Recht hat, son­dern hand­lungs­fähig zu bleiben während sich die Evi­denz entwick­elt.

Videozusam­men­fas­sung

I. Die selb­stre­f­er­en­tielle Falle: Wenn Sys­teme ihre eigene Kom­mu­nika­tion für Real­ität hal­ten

Als Yann LeCun im Novem­ber 2025 Meta ver­ließ und sein Start-up AMI Labs grün­dete, war das mehr als eine Per­son­alentschei­dung. Es war ein öffentlich­er Bruch mit dem herrschen­den Par­a­dig­ma. LeCun, Tur­ing-Award-Gewin­ner und ein­er der Väter der neu­ronalen Net­ze, for­muliert eine ver­nich­t­ende Diag­nose((An A.I. Pio­neer Warns the Tech ‘Herd’ Is March­ing Into a Dead End)): Large Lan­guage Mod­els führen in eine tech­nol­o­gis­che Sack­gasse. Sie simulieren Intel­li­genz durch sta­tis­tis­che Wahrschein­lichkeit­en, besitzen aber keine Denk­fähigkeit, kön­nen nicht pla­nen und wer­den niemals zu echter kün­stlich­er Intel­li­genz (AGI) führen.

Die Dra­matik dieser Kri­tik erschließt sich erst, wenn man sie sys­temthe­o­retisch einord­net. In Niklas Luh­manns Ter­mi­nolo­gie befind­en wir uns in ein­er Sit­u­a­tion oper­a­tiv­er Geschlossen­heit: Das Wirtschaftssys­tem der KI-Indus­trie operiert auf Basis von Zahlun­gen, die weit­ere Zahlun­gen aus­lösen – und ver­liert dabei den Kon­takt zur tech­nis­chen Real­ität.

Die Mechanik der Selb­stver­stärkung

Die Kap­i­tal­mo­bil­isierung für LLM-Infra­struk­tur hat eine klas­sis­che selb­stre­f­er­en­tielle Schleife in Gang geset­zt:

Erste Phase – Investi­tio­nen erzeu­gen Erwartungsstruk­turen: Die spek­takulären Fortschritte von GPT‑3 zu GPT‑4 schienen eine sim­ple Regel zu bestäti­gen: More is more. Mehr Para­me­ter, mehr Train­ings­dat­en, mehr Rechen­leis­tung gle­ich bessere Ergeb­nisse. Ven­ture Cap­i­tal, strate­gis­che Inve­storen und Tech-Gigan­ten mobil­isierten Mil­liar­den auf dieser Prämisse. Ope­nAIs Bew­er­tung stieg auf über 150 Mil­liar­den Dol­lar, Anthrop­ic sam­melte mehrere Mil­liar­den ein, und der gesamte Tech-Stack – von Nvidia-GPUs über Cloud-Infra­struk­tur bis zu spezial­isierten ML-Frame­works – ori­en­tierte sich an diesem Par­a­dig­ma.

Zweite Phase – Erwartun­gen struk­turi­eren Anschlussin­vesti­tio­nen: Jede neue Finanzierungsrunde bestätigt das Par­a­dig­ma und zwingt Wet­tbe­wer­ber zum Mitziehen. Google reagiert mit Gem­i­ni, Ama­zon mit Titan, Microsoft ver­dop­pelt seine Ope­nAI-Investi­tio­nen. Ein kom­plettes Ökosys­tem entste­ht: Fine­tun­ing-Dien­stleis­ter, Prompt-Engi­neer­ing-Con­sul­tants, spezial­isierte Hard­ware-Her­steller. Uni­ver­sitäten richt­en Stu­di­engänge aus, Regierun­gen definieren KI-Poli­tik ent­lang von LLMs, Reg­ulierung (EU AI Act) nimmt diese Architek­tur als gegeben.

Dritte Phase – Das Sys­tem wird selb­stre­f­er­en­tiell: Die Kri­te­rien für “Erfolg” wer­den nun inner­halb des Sys­tems selb­st definiert. Bench­marks messen, was LLMs gut kön­nen (Sprachver­ständ­nis, Textgener­ierung), nicht was sie fun­da­men­tal nicht kön­nen (kausales Denken, Pla­nung, Antizipa­tion von Hand­lungs­fol­gen). Die Kom­mu­nika­tion des Sys­tems – “AGI ist nahe”, “Next-Gen-Mod­elle rev­o­lu­tion­ieren alles”, “Super­in­tel­li­genz bis 2027” – wird zur Real­ität, auf die weit­ere Investi­tio­nen reagieren.

Der blinde Fleck: Die ignori­erte Umwelt

Luh­mann würde diag­nos­tizieren: Das Sys­tem beobachtet seine Umwelt nur noch durch die Brille des eige­nen Codes (zahlen/nicht zahlen). Was außer­halb dieser Logik liegt – LeCuns Welt­mod­ell-Ansatz, der kurzfristig keine ver­mark­t­baren Pro­duk­te ver­spricht – wird sys­tem­a­tisch aus­ge­blendet.

Die PR-Schere 

Bei LLMs öffnet sich die PR-Schere zwis­chen Real­ität und kom­mu­niziert­er Wirk­lichkeit

  • Kom­mu­nika­tion: “Unsere Mod­elle näh­ern sich men­schlich­er Intel­li­genz”,
  • Trans­for­ma­tive Durch­brüche ste­hen bevor”
  • Oper­a­tive Real­ität: Mod­elle scheit­ern an sim­plen logis­chen Rät­seln, hal­luzinieren bei fak­tis­chen Auf­gaben, kön­nen nicht pla­nen, haben kein kausales Ver­ständ­nis

Das Sys­tem behan­delt seine eigene Kom­mu­nika­tion als Real­ität. Ope­nAI kündigt GPT‑5 an, alle Konkur­renten müssen mitziehen, Inve­storen extrapolieren expo­nen­tielles Wach­s­tum – aber nie­mand stellt die Grun­dan­nahme in Frage, ob mehr Skalierung über­haupt zu qual­i­ta­tiv­en Sprün­gen führen kann.

II. Pfad­ab­hängigkeit als struk­turelle Falle

Die Ökonomie ken­nt für solche Sit­u­a­tio­nen den Begriff der Pfad­ab­hängigkeit (Paul David, Bri­an Arthur): Frühe Weichen­stel­lun­gen schränken spätere Optio­nen drastisch ein, selb­st wenn über­legene Alter­na­tiv­en existieren.

Die drei Dimen­sio­nen des Lock-In

Tech­nis­che Pfad­ab­hängigkeit: Die gesamte ML-Infra­struk­tur ist auf Trans­former-Architek­turen opti­miert. Nvidia baut GPUs für mas­sive Matrix-Mul­ti­p­lika­tio­nen, Cloud-Provider bieten spezial­isierte LLM-Ser­vices, Frame­works wie PyTorch und Ten­sor­Flow sind auf diese Work­loads zugeschnit­ten. Ein Wech­sel zu fun­da­men­tal­ly anderen Architek­turen – etwa LeCuns energie-basierten Mod­ellen oder Welt­mod­ell-Ansätzen – würde mas­sive Teile dieses Stacks obso­let machen.

Per­son­elle Pfad­ab­hängigkeit: Eine ganze Gen­er­a­tion von AI-Engi­neers hat Exper­tise in Prompt-Engi­neer­ing, Fine­tun­ing, RLHF (Rein­force­ment Learn­ing from Human Feed­back) und LLM-Deploy­ment aufge­baut. Uni­ver­sitäten bilden für dieses Par­a­dig­ma aus, Kar­ri­erep­fade ori­en­tieren sich daran. Ein Par­a­dig­men­wech­sel entwertete abrupt einen großen Teil dieses Humankap­i­tals.

Reg­u­la­torische Pfad­ab­hängigkeit: Daten­schutz-Debat­ten, Copy­right-Fra­gen, Safe­ty-Stan­dards – die gesamte reg­u­la­torische Architek­tur bezieht sich auf LLMs als Default-Tech­nolo­gie. Neue Ansätze müssten den kom­plet­ten Reg­ulierung­sprozess von vorn durch­laufen.

Abschrei­bun­gen als Verän­derungs­bar­riere

Ein Par­a­dig­men­wech­sel hätte mas­sive ökonomis­che Kon­se­quen­zen:

  • Mil­liar­den-Investi­tio­nen in Rechen­zen­tren müssten abgeschrieben wer­den
  • Tech-Bew­er­tun­gen wür­den kol­la­bieren (Ope­nAI, Anthrop­ic, große Teile von Nvidia)
  • Geschäftsmod­elle müssten neu erfun­den wer­den

Das erzeugt struk­turellen Wider­stand, unab­hängig von der tech­nis­chen Über­legen­heit alter­na­tiv­er Ansätze. Es ist nicht Böswilligkeit oder Igno­ranz, son­dern ratio­nales ökonomis­ches Kalkül: Solange LLMs Umsätze gener­ieren und Inve­storen zufrieden sind, fehlt der Anreiz für riskante Fun­da­men­tal­in­no­va­tion.

His­torische Präze­den­zfälle

Die Tech­nolo­giegeschichte ken­nt ver­gle­ich­bare Sit­u­a­tio­nen:

  • QWER­TY-Tas­tatur: Nach­weis­lich sub­op­ti­mal für Tippgeschwindigkeit, aber durch Net­zw­erk­ef­fek­te und Pfad­ab­hängigkeit­en zemen­tiert. Alter­na­tive Lay­outs (Dvo­rak, Cole­mak) sind tech­nisch über­legen, set­zen sich aber nicht durch.
  • VHS vs. Beta­max: Nicht das qual­i­ta­tiv bessere Sys­tem set­zte sich durch, son­dern das mit mehr Momen­tum und Net­zw­erk-Effek­ten.
  • Ver­bren­nungsmo­tor: Trotz früher Elek­troau­tos dominierte ein Jahrhun­dert lang fos­sile Tech­nolo­gie, weil Infra­struk­tur, Indus­trie und Exper­tise darauf aus­gerichtet waren.

Der entschei­dende Unter­schied: Bei LLMs geht es – falls LeCun Recht hat – nicht um mar­ginale Opti­mierun­gen, son­dern um eine kat­e­go­ri­ale Fehlen­twick­lung. Als würde die gesamte Auto­mo­bilin­dus­trie PS-Zahlen opti­mieren, während das eigentliche Prob­lem darin beste­ht, Mobil­ität ohne Pferde zu real­isieren.

III. Die geopoli­tis­che Asym­me­trie: Chi­nas struk­tureller Vorteil

LeCuns War­nung vor einem chi­ne­sis­chen Tech­nolo­gie-Vor­sprung ist sys­temthe­o­retisch faszinierend. Während west­liche Sys­teme durch Pfad­ab­hängigkeit­en fest­gelegt sind, kön­nte Chi­na als Late Mover diese Fall­en ver­mei­den.

Das his­torische Muster des Leapfrog­ging

Die Wirtschafts­geschichte zeigt: Späte­in­steiger kön­nen etablierte Tech­nolo­gieführer über­holen, ger­ade weil sie nicht an lega­cy infra­struc­ture hän­gen:

  • Deutsch­land im 19. Jahrhun­dert: Über­holte Eng­land indus­triell, weil es mod­ernere Fab­riken ohne Rück­sicht auf existierende Anla­gen bauen kon­nte
  • Japan in der Elek­tron­ik: Dominierte, weil es nicht an Röhrentech­nolo­gie gebun­den war
  • Süd­ko­rea bei Mobil­funk: Über­sprang Fes­t­netz-Infra­struk­tur direkt zu 3G/4G
  • Chi­na kön­nte bei KI ähn­lich prof­i­tieren. Während Ope­nAI, Anthrop­ic und Google Hun­derte Mil­liar­den in LLM-Infra­struk­tur versenkt haben und nun gezwun­gen sind, diese Assets zu mon­e­tarisieren, arbeit­en chi­ne­sis­che Forschung­sein­rich­tun­gen par­al­lel an alter­na­tiv­en Architek­turen. DeepSeek, Aliba­ba DAMO Acad­e­my und uni­ver­sitäre Insti­tute exper­i­men­tieren mit Welt­mod­ellen, neu­ro-sym­bol­is­chen Ansätzen und energie-basierten Mod­ellen.

Struk­turelle Vorteile durch Offen­heit

Para­dox­er­weise kön­nte Chi­nas Sys­tem – trotz poli­tis­ch­er Kon­trolle – in der KI-Forschung struk­turell offen­er sein:

  • Weniger Kap­i­tal-Lock-In: Chi­ne­sis­che Tech-Konz­erne haben zwar in LLMs investiert, aber nicht im Umfang west­lich­er Gigan­ten. Die Oppor­tu­nität­skosten eines Par­a­dig­men­wech­sels sind geringer.
  • Staatliche Koor­di­na­tion: Während im West­en jede Fir­ma ihr eigenes LLM baut (Ope­nAI, Anthrop­ic, Google, Meta, Microsoft, Ama­zon), kann Chi­na Forschung koor­dinieren und Redun­danzen ver­mei­den.
  • Reg­u­la­torische Flex­i­bil­ität: Keine lang­wieri­gen Debat­ten über Copy­right, keine DSG­VO-Kon­for­mität – neue Ansätze kön­nen schneller getestet wer­den.
  • Open-Source-Kul­tur: Trotz west­lich­er Nar­ra­tive ist chi­ne­sis­che KI-Forschung oft offen­er.
  • Aliba­ba veröf­fentlicht Qwen-Mod­elle voll­ständig, DeepSeek pub­liziert aggres­siv – während Ope­nAI, Anthrop­ic und Google zunehmend auf Closed Source set­zen.

Das Szenario der strate­gis­chen Über­raschung

Wenn chi­ne­sis­che Forschungs­grup­pen in 3–5 Jahren Welt­mod­ell-basierte Sys­teme zur Mark­treife brin­gen, während west­liche Fir­men noch GPT‑7 oder Claude‑5 opti­mieren, wäre das ein klas­sis­ch­er asym­metrisch­er Schock. Die gesamte west­liche KI-Indus­trie hätte dann in die falsche Tech­nolo­gie investiert – mit entsprechen­den geopoli­tis­chen und wirtschaftlichen Kon­se­quen­zen.

IV. Was sind eigentlich “Agen­ten”? Die Illu­sion der Hand­lungs­fähigkeit

Die sys­temis­che Block­ade hat direk­te Kon­se­quen­zen für ein zen­trales Ver­sprechen der KI-Indus­trie: autonome Agen­ten. Was heute als “agen­tic AI” ver­mark­tet wird – von Auto­G­PT über BabyA­GI bis zu kom­merziellen “AI agents” –, sind im Kern LLM-Wrap­per mit prim­i­tiv­er Skript-Logik.

Die Architek­tur aktueller “Agen­ten”

Ein typ­is­ches Sys­tem funk­tion­iert so:

  • Prompt-Loop: Das LLM erhält eine Auf­gabe (“Buche einen Flug nach Berlin”)
  • Tool-Call­ing: Das Mod­ell gener­iert Text, der wie API-Aufrufe aussieht
  • Exe­cu­tion Lay­er: Ein Skript inter­pretiert diesen Text und ruft tat­säch­lich APIs auf
    Iter­a­tion: Ergeb­nisse wer­den zurück ins LLM gefüt­tert, näch­ste Aktion wird gener­iert
  • Stopp-Bedin­gung: Prim­i­tive Zus­tands­mas­chine entschei­det, wann “fer­tig”
  • Das Prob­lem: An kein­er Stelle existiert ein internes Mod­ell der Welt, echte Pla­nung oder Antizipa­tion von Hand­lungs­fol­gen. Das Sys­tem simuliert agen­tic behav­ior, indem es Text gener­iert, der wie Pla­nung aussieht.

Was ein echter Agent benötigt

In der klas­sis­chen KI-Forschung (Russell/Norvig) und in LeCuns neuem Ansatz zeich­net sich ein Agent durch fun­da­men­tale Eigen­schaften aus:

1. State Rep­re­sen­ta­tion: Interne Repräsen­ta­tion des aktuellen Weltzu­s­tands. Nicht als Text, son­dern als struk­turi­erte Daten­hal­tung, die kausale Zusam­men­hänge erfasst.

2. Tran­si­tion Mod­el: Explizites Ver­ständ­nis, wie Aktio­nen Zustände verän­dern. “Wenn ich Aktion X aus­führe, wird mit Wahrschein­lichkeit p_1 Zus­tand Y ein­treten, mit p_2 Zus­tand Z.”

3. Goal-Direct­ed Plan­ning: Fähigkeit, Hand­lungsse­quen­zen zu suchen, die von Zus­tand A nach Zus­tand Z führen. Nicht durch Token-Gener­ierung, son­dern durch sys­tem­a­tis­che Explo­ration des Zus­tand­sraums.

4. Coun­ter­fac­tu­al Rea­son­ing: “Was wäre gewe­sen, wenn ich stattdessen Y getan hätte?” – die Basis für Ler­nen aus Fehlern und strate­gis­che Anpas­sung.

5. The­o­ry of Mind: Bei Mul­ti-Agen­ten-Sys­te­men zusät­zlich: Mod­el­lierung ander­er Agen­ten, Antizipa­tion ihrer Reak­tio­nen, strate­gis­che Inter­ak­tion.

LLMs besitzen keine dieser Eigen­schaften. Sie gener­ieren Token mit hoher Wahrschein­lichkeit, die wie Pla­nung ausse­hen, aber keine tat­säch­liche Pla­nung darstellen.

Beispiel: Agen­tic Com­merce

Betra­cht­en wir ein konkretes Szenario aus dem E‑Commerce – einem Bere­ich, in dem “AI agents” mas­siv bewor­ben wer­den:

Auf­gabe: “Kaufe die beste DSLR-Kam­era unter 1500€”

LLM-basiert­er “Agent” heute:

  • Durch­sucht Pro­duk­t­daten­banken via Search API
  • Gener­iert Ver­gle­ich­sta­belle nach sta­tis­tisch plau­si­blen Kri­te­rien
  • “Entschei­det” sich für Option mit besten Durch­schnittswerten
  • Prob­lem: Keine Preis­dy­namik-Mod­el­lierung, keine Antizipa­tion von Saisonra­bat­ten, kein Ver­ständ­nis von Sup­ply-Chain-Verzögerun­gen, keine echte Ver­hand­lung

Echt­es agen­tic Sys­tem mit Welt­mod­ell:

  • Preis­dy­namik: Mod­el­liert basierend auf his­torischen Dat­en: “Dieser Pro­duk­t­typ sinkt typ­is­cher­weise im Q4 um 15–20%”
  • Sup­ply Chain: Inte­gri­ert Infor­ma­tio­nen: “Her­steller X hat Pro­duk­tion­sprob­leme → aktuelle Lieferzeit 8 Wochen → Alter­na­tivher­steller pri­or­isieren”
  • Mul­ti-Step-Strate­gie: Plant Sequenz: “Zuerst ver­gle­ichen, beste Option auf Watch­list, Preisalarm set­zen, nach 2 Wochen neu bew­erten, bei Trig­ger kaufen”
  • Ver­hand­lung mit anderen Agen­ten: Wenn Verkäufer-Agent eben­falls KI-gestützt: “Verkäufer bietet 1450€, mein Mod­ell sagt Preisver­fall voraus → Gege­nange­bot 1300€, Kom­pro­miss bei 1375€”

Der Unter­schied ist fun­da­men­tal: Das LLM-Sys­tem simuliert diese Über­legun­gen durch Textgener­ierung. Das Welt­mod­ell-Sys­tem führt sie tat­säch­lich aus durch interne Zus­tand­sraum­suche.

V. Mul­ti-Agen­ten-Sys­teme: Die näch­ste Kom­plex­itätsstufe

Wenn einzelne Agen­ten schon Welt­mod­elle benöti­gen, wird es bei Mul­ti-Agen­ten-Sys­te­men (MAS) expo­nen­tiell kom­plex­er – und hier zeigt sich die fun­da­men­tale Unzulänglichkeit des LLM-Ansatzes beson­ders deut­lich.

Die Anforderun­gen

In einem echt­en MAS muss jed­er Agent:

1. Andere Agen­ten mod­el­lieren: The­o­ry of Mind – Was sind deren Ziele, Fähigkeit­en, wahrschein­liche näch­ste Schritte?

2. Koor­di­na­tion ermöglichen: Gemein­same Ontolo­gien und Kom­mu­nika­tion­spro­tokolle. Was bedeutet “drin­gend” für Agent A vs. Agent B?

3. Emer­gentes Ver­hal­ten antizip­ieren: Kom­plexe Sys­teme zeigen unvorherse­hbare Dynamiken. Beispiel: Flash Crash 2010, wo Trad­ing-Algo­rith­men sich gegen­seit­ig auf­schaukel­ten.

4. Strate­gisch inter­agieren: Koop­er­a­tion und Wet­tbe­werb, Ver­hand­lung, Koali­tions­bil­dung.
LLMs in Mul­ti-Agen­ten-Szenar­ien: Das Koor­di­na­tion­sprob­lem

Aktuell wer­den Mul­ti-Agen­ten-Sys­teme als “mehrere LLMs, die miteinan­der chat­ten” imple­men­tiert. Das führt zu grotesken Inef­fizien­zen:

  • Kom­mu­nika­tions-Over­head: Agen­ten “sprechen” in natür­lich­er Sprache statt struk­turi­erten Pro­tokollen
  • Keine echte Koor­di­na­tion: Jed­er Agent gener­iert unab­hängig Text, Abstim­mung erfol­gt durch weit­ere Text-Iter­a­tio­nen
  • Emer­gente Insta­bil­ität: LLMs hal­luzinieren, andere LLMs reagieren auf Hal­luz­i­na­tio­nen, pos­i­tiv­er Feed­back-Loop
  • Keine strate­gis­che Tiefe: “Ver­hand­lung” ist Textgener­ierung, die wie Ver­hand­lung aussieht, aber keine echte Game-The­o­ret­ic opti­miza­tion

Imp­lika­tio­nen für Finanzwe­sen und Com­merce

Für die Bere­iche, die Sie analysieren – Pay­ment-Sys­teme, Bank­ing, agen­tic com­merce pro­to­cols – sind die Kon­se­quen­zen erhe­blich:

Prob­lem 1 – Intrans­par­ente Entschei­dun­gen: Warum hat der Agent genau dieses Pro­dukt gekauft? “Das LLM hat es gener­iert” ist keine befriedi­gende Antwort für reg­u­la­torische Com­pli­ance.

Prob­lem 2 – Keine Haft­barkeit: Wenn ein Agent einen Ver­trag abschließt, der sich als nachteilig erweist – wer haftet? Der Agent kann nicht erk­lären, wie er zur Entschei­dung kam, weil es keine bewusste Entschei­dung gab, nur sta­tis­tisch plau­si­ble Textgener­ierung.

Prob­lem 3 – Manip­ulier­barkeit: Prompt Injec­tion als Angriffsvek­tor. Ein böswilliger Akteur kön­nte Pro­duk­tbeschrei­bun­gen so for­mulieren, dass LLM-Agen­ten sys­tem­a­tisch manip­uliert wer­den.

Prob­lem 4 – Keine echte Ver­hand­lung: In B2B-Kon­tex­ten, wo Käufer-Agent und Verkäufer-Agent inter­agieren soll­ten, find­et keine echte strate­gis­che Ver­hand­lung statt. Es ist Improv-The­ater: Bei­de Seit­en gener­ieren Text, der wie Ver­hand­lung klingt.

Was Welt­mod­ell-basierte Agen­ten ermöglichen wür­den

Mit LeCuns Ansatz – Agen­ten, die interne Repräsen­ta­tio­nen der Umwelt auf­bauen und Hand­lungs­fol­gen antizip­ieren kön­nen – wären fol­gende Szenar­ien möglich:

  • Autonome Preisver­hand­lung: Agent simuliert ver­schiedene Ver­hand­lungsstrate­gien, mod­el­liert Gegen­partei, find­et Pare­to-opti­male Lösun­gen.
  • Sup­ply-Chain-Koor­di­na­tion: Mul­ti­ple Agen­ten (Liefer­ant, Logis­tik, Händler) koor­dinieren sich durch geteilte Welt­mod­elle, antizip­ieren Eng­pässe, opti­mieren gemein­sam.
  • Finanz­markt-Inter­ak­tion: Trad­ing-Agen­ten mit echt­en Mark­t­mod­ellen, die nicht nur Preis­muster erken­nen, son­dern Kausalzusam­men­hänge ver­ste­hen und makroökonomis­che Fak­toren ein­beziehen.
  • Reg­u­la­to­ry Com­pli­ance: Entschei­dun­gen wären nachvol­lziehbar, weil der Agent erk­lären kann: “Ich habe Optio­nen A, B, C simuliert, basierend auf meinem Mod­ell hat­te A den höch­sten Expect­ed Val­ue unter Con­straint X.”

VI. Die Gegenrede: Warum LeCun möglicher­weise zu pes­simistisch ist

LeCuns Kri­tik ist scharf und sys­temthe­o­retisch schlüs­sig – aber sie ist nicht unum­strit­ten. Inner­halb der KI-Com­mu­ni­ty gibt es gewichtige Gegen­stim­men, die auf empirische Fortschritte, prak­tis­chen Nutzen und unter­schätzte Emer­genz-Effek­te ver­weisen. Eine aus­ge­wo­gene Analyse muss diese Posi­tio­nen ernst nehmen.

Posi­tion 1: Kon­tinuier­liche mess­bare Verbesserun­gen (Rayan Krish­nan, Vals AI)

Krish­nan argu­men­tiert empirisch: LLMs verbessern sich weit­er­hin mess­bar, ins­beson­dere in Bere­ichen, die LeCun für fun­da­men­tal unmöglich hält – logis­ches Schlussfol­gern, math­e­ma­tis­ches Rea­son­ing, Pro­gram­mierung.

Die Evi­denz:

GPT‑4 zu o1: Mas­sive Verbesserun­gen bei for­maler Logik und math­e­ma­tis­chen Beweisen
Code-Gener­ierung: Von “kann ein­fache Funk­tio­nen schreiben” zu “löst kom­plexe Algo­rith­mus-Prob­leme auf Com­pet­i­tive-Pro­gram­ming-Niveau”

Chain-of-Thought und Self-Con­sis­ten­cy: LLMs entwick­eln durch iter­a­tives Rea­son­ing Fähigkeit­en, die ursprünglich unmöglich schienen

Das Gege­nar­gu­ment zu LeCun:

Vielle­icht braucht es keine expliziten Welt­mod­elle, wenn sta­tis­tis­che Muster bei genü­gen­der Skalierung emer­gente rea­son­ing-Fähigkeit­en her­vor­brin­gen. LeCun sagt “LLMs kön­nen nicht pla­nen” – aber aktuelle Mod­elle zeigen dur­chaus Ansätze von Vorauss­chau und strate­gis­chem Denken, wenn auch auf andere Weise als klas­sis­che Plan­er.

Die philosophis­che Frage:

Ist “echt­es” Denken eine ontol­o­gis­che Kat­e­gorie, oder ist es funk­tion­al definiert? Wenn ein Sys­tem Auf­gaben löst, die Pla­nung erfordern – spielt es dann eine Rolle, wie es das tut? Krish­nan würde sagen: Solange die Per­for­mance steigt, ist der Mech­a­nis­mus sekundär.

Kri­tis­che Einord­nung:

Diese Posi­tion hat Gewicht. Die Fortschritte von GPT‑3.5 zu GPT‑4 zu o1 sind real und beein­druck­end. Aber sie lässt zwei Fra­gen offen:

Skalierungs­gren­zen: Sind diese Verbesserun­gen lin­ear weit­er fort­set­zbar, oder näh­ern wir uns asymp­to­tisch einem Plateau?

Kat­e­go­ri­ale Lück­en: Gibt es Fähigkeit­en (echte Kausal­ität, robuste Pla­nung unter Unsicher­heit), die durch Skalierung fun­da­men­tal nicht erre­ich­bar sind?

Posi­tion 2: Prak­tis­ch­er Nutzen trotz the­o­retis­ch­er Lim­i­ta­tio­nen (Sub­barao Kamb­ham­pati, Ari­zona State)

Kamb­ham­pati ist faszinierend, weil er LeCuns the­o­retis­che Kri­tik teilt, aber zu anderen prak­tis­chen Schlussfol­gerun­gen kommt. Seine Posi­tion: Ja, LLMs haben fun­da­men­tale Lim­i­ta­tio­nen – aber sie sind trotz­dem nüt­zlich und ökonomisch wertvoll.

Die Nuancierung:

LLMs sind keine “echt­en” Agen­ten, son­dern kog­ni­tive Werkzeuge. Sie erweit­ern men­schliche Fähigkeit­en, erset­zen sie aber nicht. Das ist kein Bug, son­dern Fea­ture.
Konkrete Anwen­dungs­fälle, wo LLMs ohne Welt­mod­elle funk­tion­ieren:

Assis­tenz-Sys­teme: GitHub Copi­lot braucht kein Welt­mod­ell, um Entwick­lern zu helfen. Es muss nicht “ver­ste­hen”, son­dern sta­tis­tisch plau­si­ble Code-Fort­set­zun­gen gener­ieren.

Con­tent-Trans­for­ma­tion: Über­set­zung, Zusam­men­fas­sung, Umfor­mulierung – alles Auf­gaben, die keine tiefe Kausal­ität erfordern, aber enor­men wirtschaftlichen Wert schaf­fen.

Infor­ma­tions-Retrieval: RAG (Retrieval-Aug­ment­ed Gen­er­a­tion) kom­pen­siert fehlen­des Weltwissen durch Zugriff auf Daten­banken. Das Sys­tem muss die Welt nicht mod­el­lieren, nur kom­pe­tent mit Infor­ma­tio­nen umge­hen.

Human-in-the-Loop-Szenar­ien: Bei kri­tis­chen Entschei­dun­gen bleibt der Men­sch im Loop. Das LLM schlägt vor, der Men­sch entschei­det. Hier ist die fehlende Pla­nungs­fähigkeit weniger prob­lema­tisch.

Die ökonomis­che Real­ität:

Selb­st wenn LLMs niemals AGI erre­ichen – sie gener­ieren jet­zt Mil­liar­den an Wert. Unternehmen steigern Pro­duk­tiv­ität mess­bar. Das ist nicht Hype, son­dern doku­men­tierte ROI.

Kri­tis­che Einord­nung:

  • Kamb­ham­pati hat recht: Die wirtschaftliche Rel­e­vanz ist real. Aber das macht LeCuns Kri­tik nicht falsch – es ver­schiebt nur die Frage. Nicht “sind LLMs nüt­zlich?” (ja), son­dern “führen sie zu AGI?” (ver­mut­lich nein) und “block­ieren sie bessere Ansätze?” (möglicher­weise).
  • Diese Posi­tion erk­lärt auch Szenario 3 (Par­al­lele Wel­ten): LLMs dominieren kom­merzielle Anwen­dun­gen, weil sie für viele Auf­gaben aus­re­ichen, während echte autonome Agen­ten in Spezial­domä­nen bleiben.

Posi­tion 3: Unter­schätzte Emer­genz und Skalierungs­ge­set­ze

Eine dritte Posi­tion – vertreten von Forsch­ern bei Ope­nAI, Anthrop­ic und Google – argu­men­tiert, dass LeCun die Emer­genz-Phänomene unter­schätzt.

Die Beobach­tung:

Fähigkeit­en, die bei kleineren Mod­ellen nicht existieren, tauchen plöt­zlich bei größeren Skalen auf. Nie­mand hat GPT‑3 beige­bracht, Analo­gien zu bilden oder in anderen Sprachen zu antworten – diese Fähigkeit­en emergieren.

Die Hypothese:

Vielle­icht emergieren auch Pla­nungs- und Rea­son­ing-Fähigkeit­en bei weit­er­er Skalierung. LeCun sagt “das ist architek­turell unmöglich” – aber die Emer­genz-Forschung zeigt, dass kom­plexe Sys­teme Eigen­schaften entwick­eln, die nicht aus ihren Kom­po­nen­ten vorher­sag­bar sind.

Scal­ing Laws als the­o­retis­che Basis:

Die Chin­chilla-Forschung und Fol­low-ups zeigen: Per­for­mance skaliert vorher­sag­bar mit Com­pute, Dat­en und Para­me­tern. Wenn diese Geset­ze weit­er gel­ten, kön­nten Mod­elle mit 10x oder 100x mehr Com­pute qual­i­ta­tiv neue Fähigkeit­en entwick­eln.

Kri­tis­che Einord­nung:

Diese Posi­tion ist speku­la­tiv, aber nicht unplau­si­bel. Das Prob­lem: Sie ist unfal­si­fizier­bar bis zum tat­säch­lichen Ver­such. LeCun kön­nte Recht haben – oder Emer­genz kön­nte ihn wider­legen. Wir wis­sen es erst, wenn jemand GPT‑6 oder GPT‑7 trainiert.

Das wirft aber die ökonomis­che Frage auf: Ist es ratio­nal, Hun­derte Mil­liar­den auf eine Hypothese zu wet­ten? Und selb­st wenn Emer­genz ein­tritt – garantiert das, dass es der effizien­teste Weg ist?

Posi­tion 4: Die exis­ten­ziellen Risiken (Hinton/Bengio vs. LeCun)

Eine ganz andere Debat­te: LeCuns frühere Tur­ing-Award-Kol­le­gen Geof­frey Hin­ton und Yoshua Ben­gio war­nen vor exis­ten­ziellen Risiken durch KI – eine Posi­tion, die LeCun entsch­ieden ablehnt.

Hin­tons Sorge:

KI-Sys­teme kön­nten zu mächtig wer­den, bevor wir sie kon­trol­lieren kön­nen. Er hat Google 2023 ver­lassen, um freier vor Risiken war­nen zu kön­nen.

Ben­gios War­nung:

Super­in­tel­li­gente Sys­teme kön­nten Ziele entwick­eln, die mit men­schlichen Werten inkom­pat­i­bel sind. Das “Align­ment Prob­lem” ist ungelöst.

LeCuns Gegen­po­si­tion:

Diese Äng­ste sind über­trieben und schaden mehr als sie nutzen. Erstens: LLMs sind weit von super­in­tel­li­gent ent­fer­nt. Zweit­ens: Angst ist kein guter Rat­ge­ber für Tech­nolo­giepoli­tik. Drit­tens: Über­zo­gene Reg­ulierung würde Inno­va­tion abwür­gen.

Die Ironie:

LeCun kri­tisiert LLMs als zu lim­i­tiert für AGI – seine Kol­le­gen war­nen, sie kön­nten zu mächtig wer­den. Bei­de Posi­tio­nen kön­nen nicht gle­ichzeit­ig richtig sein.

Mögliche Auflö­sung:

Vielle­icht haben bei­de teil­weise Recht:

LeCun: LLMs allein führen nicht zu AGI
Hinton/Bengio: Aber LLMs + andere Kom­po­nen­ten (z.B. Welt­mod­elle, Agen­tic Frame­works) kön­nten zu gefährlich mächti­gen Sys­te­men führen

Kri­tis­che Einord­nung:

Diese Debat­te ist wichtig, aber orthog­o­nal zu LeCuns Haup­tkri­tik. Man kann gle­ichzeit­ig glauben, dass (a) LLMs fun­da­men­tale Lim­i­ta­tio­nen haben UND (b) wir bei KI-Sicher­heit vor­sichtig sein soll­ten.

Syn­these der Gegen­po­si­tio­nen: Ein dif­feren­ziertes Bild

Die vier Posi­tio­nen zeigen: LeCuns Kri­tik ist nicht der Kon­sens der Com­mu­ni­ty. Ein aus­ge­wo­genes Urteil muss anerken­nen:

Was für LeCun spricht:

The­o­retis­che Fundierung: Seine Argu­men­ta­tion über fehlende Welt­mod­elle ist schlüs­sig
His­torische Analo­gien: Par­a­dig­men­wech­sel waren oft nötig (von Expert Sys­tems zu ML, von SVMs zu Deep Learn­ing)

Geopoli­tis­che Real­ität: Chi­nas exper­i­men­tier­freudi­gere Forschung kön­nte tat­säch­lich Vorteile brin­gen

Was gegen LeCun spricht:

Empirische Fortschritte: Mod­elle verbessern sich mess­bar in Bere­ichen, die er für unmöglich hielt
Ökonomis­che Real­ität: LLMs schaf­fen jet­zt Wert, nicht erst in hypo­thetis­ch­er Zukun­ft
Emer­genz-Poten­zial: Kom­plexe Sys­teme kön­nen Eigen­schaften entwick­eln, die nicht vorher­sag­bar sind

Prak­tis­che Nüt­zlichkeit: Für viele Anwen­dun­gen sind “echte” Welt­mod­elle nicht nötig

Die zen­trale Frage, die bleibt:

Ist die Verbesserung von LLMs inkre­mentell (asymp­to­tisch gegen ein Lim­it) oder expo­nen­tiell (mit Poten­zial für qual­i­ta­tive Sprünge)?

LeCun sagt: inkre­mentell, Lim­it ist bere­its sicht­bar.

Krish­nan/Skalierungs-Opti­mis­ten sagen: expo­nen­tiell, wir sind noch am Anfang.

Wer Recht hat, entschei­det sich empirisch in den näch­sten 2–3 Jahren. Falls GPT‑5, Claude‑4, Gemini‑3 keine kat­e­gorischen Verbesserun­gen mehr zeigen, hat­te LeCun Recht. Falls doch, müssen seine Kri­tik­er ihre The­o­rie rev­i­dieren.

Imp­lika­tio­nen für die Sys­temthe­o­retis­che Analyse

Die Gegen­po­si­tio­nen ändern nichts an der sys­temthe­o­retis­chen Diag­nose der Pfad­ab­hängigkeit­en und selb­stre­f­er­en­tiellen Fall­en – aber sie zeigen, dass die Sit­u­a­tion kom­plex­er ist:

Szenario A: LeCun hat Recht → Indus­trie investiert in Sack­gasse → Par­a­dig­men­wech­sel nötig → Mas­sive Dis­rup­tion

Szenario B: Krish­nan hat Recht → Skalierung führt weit­er zu Fortschrit­ten → Gradu­elle Evo­lu­tion reicht → Dis­rup­tion ver­mei­d­bar

Szenario C: Kamb­ham­pati hat Recht → LLMs bleiben nüt­zlich, erre­ichen aber nie AGI → Par­al­lele Wel­ten → Koex­is­tenz ver­schieden­er Ansätze

Die Pfad­ab­hängigkeit­en existieren in allen drei Szenar­ien – aber ihre Kon­se­quen­zen vari­ieren drama­tisch.

VII. Die Wegschei­de: Drei Szenar­ien revis­it­ed

Unter Berück­sich­ti­gung der Gegen­po­si­tio­nen lassen sich die drei Entwick­lungsp­fade nun präzis­er fassen:

Szenario 1: Gradu­elle Evo­lu­tion – “Scal­ing + Hybrid”

LLMs verbessern sich weit­er mess­bar (à la Krish­nan), wer­den aber inkre­mentell mit Welt­mod­ell-Kom­po­nen­ten erweit­ert. Hybrid-Architek­turen entste­hen:

  • LLMs für Sprach­in­ter­face, Rea­son­ing und Mus­ter­erken­nung
  • Sep­a­rate Mod­ule für explizite Pla­nung, Zus­tand­srepräsen­ta­tion und Kausal­ität
  • Schrit­tweise Inte­gra­tion durch neu­ro-sym­bol­is­che Ansätze
  • Emer­genz-Effek­te bei weit­er­er Skalierung ergänzen designte Kom­po­nen­ten

Trig­ger: GPT‑5/Claude‑4/Gemini‑3 zeigen mess­bare Verbesserun­gen bei Rea­son­ing, aber auch klare Gren­zen. Indus­trie reagiert mit hybri­den Sys­te­men.

  • Vorteil: Beste­hende Infra­struk­tur bleibt nutzbar, keine radikalen Abschrei­bun­gen. Kon­ti­nu­ität statt Dis­rup­tion. Prak­tis­ch­er Nutzen (à la Kamb­ham­pati) wird kon­tinuier­lich gesteigert.
  • Nachteil: Möglicher­weise sub­op­ti­mal – wed­er die Ele­ganz rein­er Welt­mod­ell-Ansätze noch die Ein­fach­heit rein­er LLMs. “Com­plex­i­ty creep” durch Kom­po­nen­ten­vielfalt. Fun­da­men­tale Lim­i­ta­tio­nen bleiben, nur gradu­ell gemildert.
  • Imp­lika­tion für Agen­ten: Mul­ti-Agen­ten-Sys­teme wer­den funk­tions­fähig für kom­merzielle Anwen­dun­gen, bleiben aber anfäl­lig (Hal­luz­i­na­tio­nen, Prompt Injec­tion, intrans­par­ente Entschei­dun­gen).

Szenario 2: Dis­rup­tiv­er Bruch – “Post-LLM-Rev­o­lu­tion”

Ein Durch­bruch bei Welt­mod­ellen, Joint-Embed­ding Archi­tec­tures oder ganz anderen Ansätzen macht LLMs obso­let. Ähn­lich wie Deep Learn­ing die klas­sis­che Com­put­er Vision über­flüs­sig machte oder Trans­former die RNNs.

Trig­ger:

  • Vari­ante A: Chi­ne­sis­che Forschungs­gruppe oder LeCuns AMI Labs demon­stri­ert Sys­tem, das LLMs bei fun­da­men­tal­en Auf­gaben klar über­trifft – nicht bei Bench­marks, son­dern bei echt­en Planungs‑, Kausal- und Rea­son­ing-Tasks
  • Vari­ante B: Skalierung erre­icht harte Gren­zen (Com­pute-Kosten, Energie, Daten­qual­ität), während alter­na­tive Ansätze effizien­ter sind
  • Folge: Mas­sive Mark­tkon­so­li­dierung. Nvidia muss piv­otieren (andere Hard­ware-Anforderun­gen), OpenAI/Anthropic ste­hen vor Exis­ten­zfrage, neue Gewin­ner entste­hen. Par­al­lele zu Nokia im Smart­phone-Zeital­ter.

Vorteil: Fun­da­men­tal leis­tungs­fähigere Sys­teme. Echte autonome Agen­ten mit Pla­nungs­fähigkeit. Energieef­fizien­ter (LeCuns Ansätze brauchen weniger Com­pute).
Nachteil: Mas­sive Kap­i­talver­nich­tung. Geopoli­tis­che Ver­schiebun­gen falls Chi­na führt.

Reg­u­la­torische Unsicher­heit.

Imp­lika­tion für Agen­ten: Erst dann entste­hen echte Mul­ti-Agen­ten-Sys­teme mit den Eigen­schaften, die für kri­tis­che Anwen­dun­gen (Finanzen, autonome Fahrzeuge, Medi­zin) nötig sind.

Szenario 3: Par­al­lele Wel­ten – “Arbeit­steilung der Architek­turen”

LLMs dominieren kom­merzielle Anwen­dun­gen (Con­tent, Kun­denser­vice, Assis­tenz), weil sie für diese Auf­gaben “gut genug” sind und mas­sive Infra­struk­tur existiert. Echte Agen­ten mit Welt­mod­ellen bleiben Spezial­do­main (Robotik, strate­gis­che KI, wis­senschaftliche Forschung, Hochsicher­heits­bere­iche).

Begrün­dung: Kamb­ham­patis Posi­tion set­zt sich durch – prak­tis­ch­er Nutzen über­wiegt the­o­retis­che Ele­ganz. Unternehmen fra­gen nicht “ist das echte Intel­li­genz?”, son­dern “steigert es ROI?”.

Mark­t­dy­namik:

LLM-Track: Con­sumer-Anwen­dun­gen, Enter­prise-Soft­ware, kreative Tools
Welt­mod­ell-Track: Robotik, autonome Sys­teme, wis­senschaftliche Sim­u­la­tion, mil­itärische Anwen­dun­gen

Resul­tat: Tech­nol­o­gis­che Bifurka­tion. Zwei sep­a­rate Ökosys­teme mit unter­schiedlichen Tool­chains, Aus­bil­dungswe­gen, Geschäftsmod­ellen und Com­mu­ni­ties. Wie heute High-Per­for­mance-Com­put­ing vs. Web-Devel­op­ment – ver­wandte Felder, aber fun­da­men­tal ver­schiedene Kul­turen.

Vorteil: Bei­de Ansätze kön­nen sich unab­hängig entwick­eln. Keine dis­rup­tive Kap­i­talver­nich­tung. Spezial­isierung erhöht Effizienz.

Nachteil: Frag­men­tierung. Redun­dante Forschung. Schwierige Inte­gra­tion dort, wo bei­de Ansätze nötig wären (z.B. humanoide Robot­er mit natür­lichem Dia­log).

Imp­lika­tion für Agen­ten: LLM-basierte “Agen­ten” dominieren E‑Commerce und Kun­denser­vice, aber wer­den nie für kri­tis­che autonome Sys­teme zuge­lassen. Echte Agen­ten bleiben Nis­che mit hohen Entwick­lungskosten.

Welch­es Szenario ist wahrschein­lich­er?

Für Szenario 1 (Gradu­elle Evo­lu­tion) spricht:

  • Pfad­ab­hängigkeit­en machen Dis­rup­tion teuer
  • Bish­erige Fortschritte recht­fer­ti­gen Fort­set­zung
  • Ökonomis­ch­er Druck auf Kon­ti­nu­ität
  • Hybrid-Ansätze sind prag­ma­tisch und poli­tisch kon­sens­fähig

Für Szenario 2 (Dis­rup­tiv­er Bruch) spricht:

  • Tech­nolo­giegeschichte zeigt: Par­a­dig­men­wech­sel kom­men oft uner­wartet
  • Wenn Skalierung tat­säch­lich an Gren­zen stößt, wird Dis­rup­tion unver­mei­dlich
  • Geopoli­tis­ch­er Wet­tbe­werb kön­nte Dis­rup­tion beschle­u­ni­gen (Chi­na als Wild­cart)
  • LeCuns the­o­retis­che Argu­mente sind stark

Für Szenario 3 (Par­al­lele Wel­ten) spricht:

  • His­torische Präze­denz: Tech­nolo­gien koex­istieren oft länger als erwartet
  • “Good enough” gewin­nt gegen “per­fekt” (VHS, Win­dows, etc.)
  • Unter­schiedliche Anwen­dungs­domä­nen haben unter­schiedliche Anforderun­gen
  • Ökonomis­che Logik: Warum beste­hende Märk­te aufgeben?

Die wahrschein­lich­ste Entwick­lung: Eine Kom­bi­na­tion. Kurzfristig (2–3 Jahre) Szenario 1 (gradu­elle Evo­lu­tion), mit­tel­fristig (5–7 Jahre) Entwick­lung Rich­tung Szenario 3 (Par­al­lele Wel­ten), mit geringer aber real­er Chance auf Szenario 2 (dis­rup­tiv­er Bruch), falls tech­nol­o­gis­che oder geopoli­tis­che Schocks ein­treten.

VIII. Lehren für die deutsche Dig­i­tal­isierungspoli­tik

Die LeCun-Debat­te – mit allen Gegen­po­si­tio­nen – hat direk­te Imp­lika­tio­nen für die Frage, wie Deutsch­land und Europa mit KI-Tech­nolo­gie umge­hen soll­ten:

Lek­tion 1: Diver­si­fika­tion statt Monokul­tur

  • Deutsche Unternehmen und Poli­tik soll­ten nicht reflexar­tig auf “mehr LLMs” set­zen, nur weil US-Konz­erne dies tun – aber auch nicht LLMs ignori­eren, nur weil LeCun sie kri­tisiert.
  • Die sys­temis­che Analyse zeigt: Mas­sive Kap­i­tal­mo­bil­isierung in eine Rich­tung schafft Pfad­ab­hängigkeit­en. Das kann richtig sein (wenn LLMs weit­er funk­tion­ieren), aber auch katas­trophal (wenn LeCun Recht hat und Par­a­dig­men­wech­sel kommt).

Empfehlung: Port­fo­lio-Ansatz in der KI-Strate­gie:

LLMs dort nutzen, wo sie prak­tis­chen Wert schaf­fen (à la Kamb­ham­pati)
Par­al­lel alter­na­tive Ansätze erforschen (Welt­mod­elle, neu­ro-sym­bol­isch, energie-basiert)
Ger­ade weil Deutsch­land bei LLMs nicht führend ist, kön­nte Fokus auf Post-LLM-Architek­turen strate­gisch sin­nvoll sein (Leapfrog­ging-Logik)
Aber: Nicht binär entschei­den, son­dern diver­si­fizieren

Beispiel: Statt ein “deutsches Chat­G­PT” mit Mil­liar­den-Bud­get (das ohne­hin zu spät käme), lieber 5–10 par­al­lele Forschungswege mit je 100–200 Mio. € fördern. Ein­er davon wird ver­mut­lich scheit­ern oder irrel­e­vant wer­den – aber dafür ist man flex­i­bel.

Lek­tion 2: Die PR-Schere erken­nen und benen­nen

  • Unternehmen verkün­den “KI-Trans­for­ma­tion”
  • Tat­säch­lich: Chat­G­PT-Wrap­per für interne Suche
  • Sub­stanz fehlt, weil fun­da­men­tale Lim­i­ta­tio­nen ignori­ert wer­den
  • Aber: Die Gegen­po­si­tion mah­nt zur Vor­sicht vor Zynis­mus. Manche LLM-Anwen­dun­gen schaf­fen echt­en Wert (Kun­denser­vice-Automa­tisierung, Code-Assis­tenz, Con­tent-Trans­for­ma­tion). Die PR-Schere existiert, aber nicht alles ist Hype.

Empfehlung: Kri­tis­che Eval­u­a­tion mit dif­feren­ziertem Blick:

Nicht fra­gen “nutzt ihr KI/ein LLM?”, son­dern “löst es das tat­säch­liche Prob­lem besser/günstiger als Alter­na­tiv­en?”

Erfolg messen an konkreten KPIs (Pro­duk­tiv­itätssteigerung, Kostensenkung, Kun­den­zufrieden­heit), nicht an Mar­ket­ing-Nar­ra­tiv­en

Aber: Echte Erfolge anerken­nen, nicht reflexar­tig alles als Hype abtun

Spez­i­fisch für Mul­ti-Agen­ten-Sys­teme: Wenn ein Unternehmen “agen­tic AI” verkün­det, fra­gen: Han­delt es sich um echte Autonomie mit Pla­nungs­fähigkeit, oder um LLM-Wrap­per mit API-Calls? Ersteres ist schw­er, let­zteres ist oft “good enough” – aber die Unter­schei­dung ist kri­tisch.

Lek­tion 3: Reg­ulierung für tech­nol­o­gis­che Unsicher­heit

Der EU AI Act ist voll­ständig auf LLMs zugeschnit­ten. Falls sich das Par­a­dig­ma ver­schiebt (Szenario 2), ist die Reg­ulierung obso­let bevor sie wirkt. Falls LLMs dominieren (Szenario 1 oder 3), ist sie ver­mut­lich adäquat.

Prob­lem: Wir wis­sen nicht, welch­es Szenario ein­tritt, müssen aber jet­zt reg­ulieren.
Empfehlung: Tech­nolo­gie-agnos­tis­che, capa­bil­i­ties-basierte Reg­ulierung:

Nicht “LLMs mit X Para­me­tern sind High-Risk”
Son­dern “Sys­teme mit Eigen­schaft Y (z.B. Autonomie in kri­tis­chen Bere­ichen) unter­liegen Anforderun­gen Z”

Fokus auf tat­säch­liche Risiken (Fehler­an­fäl­ligkeit, Diskri­m­inierung, Manip­u­la­tion), nicht auf Architek­tur-Details

Reg­ulierung sollte anpas­sungs­fähig sein (“sun­set claus­es”, regelmäßige Revi­sion)

Konkret: Wenn ein “Agent” autonome Finanz­transak­tio­nen täti­gen kann, ist egal ob er LLM-basiert oder welt­mod­ell-basiert ist – die Com­pli­ance-Anforderun­gen soll­ten gle­ich sein (Audi­tier­barkeit, Haf­tung, Trans­parenz).

Lek­tion 4: Open Source als strate­gis­ches Asset – mit Nuan­cen

LeCuns War­nung ist ein­deutig: Closed Source schwächt Inno­va­tion. Chi­na prof­i­tiert von offener­er Forschung. Aber die Real­ität ist kom­plex­er:

Pro Open Source:

  • Beschle­u­nigt Forschung (mehr Augen, mehr Exper­i­mente)
  • Ver­hin­dert Lock-In bei einzel­nen Anbi­etern
  • Demokratisiert Zugang (wichtig für kleinere Akteure)
  • Erhöht Sicher­heit durch Trans­parenz (mehr Prü­fung)

Con­tra Open Source (Gege­nar­gu­mente):

  • Reduziert Anreize für teure Grund­la­gen­forschung (wer investiert Mil­liar­den, wenn Wet­tbe­wer­ber sofort kopiert?)
  • Kann Risiken erhöhen (Miss­brauchspoten­zial bei leis­tungs­fähi­gen Mod­ellen)
  • Nicht alle Dat­en kön­nen offen sein (Pri­va­cy, Geschäfts­ge­heimnisse)

Aus­ge­wo­gene Empfehlung:

  • Forschungsebene: Max­i­mal offen (Papers, Architek­turen, Meth­o­d­en)
  • Mod­ell-Ebene: Gestuft – kleinere Mod­elle kom­plett offen, sehr große Mod­elle mit respon­si­ble dis­clo­sure
  • Dat­en-Ebene: Synthetische/anonymisierte Datasets offen, echte Nutzer­dat­en geschützt
  • Infra­struk­tur: Europäis­che Open-Source-Infra­struk­tur (Com­pute, Frame­works) als pub­lic good
  • Europäis­ches Pro­fil: Nicht “geschlossen­er als USA”, aber auch nicht “naiv offen”.

Prag­ma­tis­ch­er Mit­tel­weg, der Inno­va­tion fördert und Risiken man­agt.

Lek­tion 5: Geopoli­tis­che Dimen­sion ohne Panik

LeCuns Chi­na-War­nung ist ernst zu nehmen, aber nicht zu drama­tisieren. Die Logik:

  • Chi­na hat weniger Pfad­ab­hängigkeit­en → kön­nte flex­i­bler auf Par­a­dig­men­wech­sel reagieren
  • Chi­nas offenere KI-Forschung kön­nte Vorteile brin­gen
  • Late-Mover-Advan­tage ist his­torisch real

Aber:

  • USA/Europa haben weit­er­hin mas­sive Vorteile (Tal­ent­pool, Kap­i­tal, Infra­struk­tur, Chipde­sign)
  • Chi­nas “Offen­heit” ist selek­tiv und staatlich ges­teuert
  • Tech­nolo­gie-Führerschaft entschei­det sich nicht nur an Architek­tur-Wahl

Empfehlung:

Nicht: Pro­tek­tion­is­mus als Reak­tion auf Unsicher­heit
Son­dern: Struk­turelle Flex­i­bil­ität als Wet­tbe­werb­svorteil

Europäis­che Stärken ausspie­len: Reg­u­la­torische Kom­pe­tenz, Daten­schutz-Exper­tise, Qual­ität statt Quan­tität

Koop­er­a­tio­nen mit chi­ne­sis­chen Forschung­sein­rich­tun­gen wo möglich, Absicherung kri­tis­ch­er Bere­iche wo nötig

Lek­tion 6: Epis­temis­che Demut als Strate­gie

Die wichtig­ste Lehre: Wir wis­sen nicht, wer Recht hat. LeCun kön­nte Recht haben, Krish­nan kön­nte Recht haben, ver­mut­lich haben bei­de teil­weise Recht.

Tra­di­tionelle Strate­gie in Unsicher­heit: Wet­ten auf wahrschein­lich­stes Szenario. Prob­lem: Bei hoher Unsicher­heit ist das Glücksspiel.

Bessere Strate­gie: Robus­theit gegenüber ver­schiede­nen Szenar­ien.

Nicht opti­mieren für Szenario 1, 2 oder 3

Son­dern: Posi­tion­ierung, die in allen drei Szenar­ien funk­tion­iert
Option­swert max­imieren (reversible Entschei­dun­gen), Pfad­ab­hängigkeit­en min­imieren

Konkret:

  • Investi­tio­nen in Infra­struk­tur, die für ver­schiedene Architek­turen nutzbar ist
  • Aus­bil­dung, die Grund­la­gen ver­mit­telt (Math­e­matik, Infor­matik) statt nur aktueller Tools
  • Insti­tu­tio­nen, die schnell neue Ansätze aufnehmen kön­nen (flex­i­ble Forschungs­förderung)
  • Unternehmen, die tech­nolo­gie-agnos­tis­che Pro­duk­te bauen (nicht “wir sind das LLM-Unternehmen”, son­dern “wir lösen Prob­lem X mit bester ver­füg­bar­er Tech­nolo­gie”)

IX. Faz­it: Zwis­chen struk­tureller Trägheit, empirischen Fortschrit­ten und echter Unsicher­heit

LeCuns Kri­tik ist mehr als eine akademis­che Debat­te über Architek­tur-Details. Sie offen­bart eine sys­temis­che Block­ade, in der sich das herrschende Par­a­dig­ma durch Pfad­ab­hängigkeit­en selb­st sta­bil­isiert – aber die Gege­nar­gu­mente zeigen, dass die Sit­u­a­tion kom­plex­er und offen­er ist als ein sim­ples “LLMs sind eine Sack­gasse”.

Was wir mit Sicher­heit wis­sen

  • Die selb­stre­f­er­en­tielle Dynamik ist real: Investi­tio­nen erzeu­gen Erwartun­gen, Erwartun­gen legit­imieren weit­ere Investi­tio­nen, das Sys­tem definiert “Erfolg” nach eige­nen Kri­te­rien.
  • Die PR-Schere existiert – zwis­chen “AGI ist nahe” und der oper­a­tiv­en Real­ität begren­zter Pla­nungs­fähigkeit.
  • Pfad­ab­hängigkeit­en wirken: Die tech­nis­che, per­son­elle und reg­u­la­torische Lock-In-Sit­u­a­tion macht einen radikalen Par­a­dig­men­wech­sel zunehmend teuer. Das ist ökonomis­che Real­ität, keine Ver­schwörungs­the­o­rie.
  • Aktuelle “Agen­ten” simulieren mehr als sie sind: Was heute als “agen­tic AI” verkauft wird, hat keine echt­en Welt­mod­elle, keine robuste Pla­nungs­fähigkeit, keine kausal­in­formierten Entschei­dun­gen. Für kri­tis­che Anwen­dun­gen (Finanzen, Medi­zin, autonome Sys­teme) ist das prob­lema­tisch.

Was wir nicht mit Sicher­heit wis­sen

  • Führt Skalierung zu qual­i­ta­tiv­en Sprün­gen oder nicht? LeCun sagt nein, Krish­nan und die Scal­ing-Opti­mis­ten sagen ja. Die Frage ist empirisch, nicht philosophisch – und sie wird sich in den näch­sten 2–3 Jahren beant­worten.
  • Sind Welt­mod­elle zwin­gend nötig oder “nur” opti­mal? Kamb­ham­pati zeigt: Für viele prak­tis­che Auf­gaben funk­tion­ieren LLMs gut genug. Die Frage ist nicht binär (funktioniert/funktioniert nicht), son­dern gradu­ell (wie viel bess­er wären Alter­na­tiv­en?).
  • Wie schnell ver­laufen Par­a­dig­men­wech­sel? Tech­nolo­giegeschichte zeigt: Manch­mal sehr schnell (Smart­phone-Rev­o­lu­tion), manch­mal sehr langsam (Elek­troau­to-Durch­bruch). Welch­es Muster gilt hier?
  • Was macht Chi­na? Die geopoli­tis­che Wild­card bleibt. Wenn Chi­na tat­säch­lich par­al­lele Forschungswege ver­fol­gt und zum Durch­bruch kommt, ändert sich alles – aber das ist Speku­la­tion, keine Gewis­sheit.

Imp­lika­tio­nen für strate­gis­che Entschei­dun­gen

Für Unternehmen:

  • Nicht binär entschei­den (LLMs vs. Alter­na­tiv­en), son­dern diver­si­fizieren
  • LLMs für “good enough”-Anwendungen nutzen, wo sie Wert schaf­fen
  • Par­al­lel alter­na­tive Ansätze beobacht­en und bei Bedarf piv­ot-fähig bleiben
  • Kri­tis­che Sys­teme nicht voll­ständig auf LLM-Agen­ten bauen

Für Forsch­er:

  • LeCuns Kri­tik ernst nehmen, ohne LLM-Forschung kom­plett zu ver­w­er­fen
  • Hybrid-Ansätze als prag­ma­tis­chen Mit­tel­weg erkun­den
  • Emer­genz-Phänomene sys­tem­a­tisch unter­suchen (empirische Frage)
  • Alter­na­tive Architek­turen nicht ver­nach­läs­si­gen, auch wenn aktuell weniger gefördert

Für Politik/Regulierung:

  • Tech­nolo­gie-agnos­tis­che Reg­ulierung (nicht “LLMs sind…”, son­dern “Sys­teme mit Eigen­schaft X…”)
  • Open Source fördern (Inno­va­tion beschle­u­ni­gen, nicht brem­sen)
  • Diver­si­fizierung statt Konzen­tra­tion (nicht alles auf eine Architek­tur set­zen)
  • Geopoli­tis­che Dimen­sion ernst nehmen (dig­i­tale Sou­veränität)

Die zen­trale Lehre

Das größte Risiko ist nicht, auf die falsche Tech­nolo­gie zu set­zen – das ist unver­mei­dlich in Zeit­en tech­nol­o­gis­ch­er Unsicher­heit. Das größte Risiko ist struk­turelle Rigid­ität: Sich durch Pfad­ab­hängigkeit­en so festzule­gen, dass man nicht mehr reagieren kann, wenn sich die Evi­denz ändert.

LeCun mag Recht haben, dass LLMs in eine Sack­gasse führen. Oder Krish­nan mag Recht haben, dass Skalierung weit­er funk­tion­iert. Oder Kamb­ham­pati mag Recht haben, dass bei­des nebeneinan­der existiert. Wir wis­sen es nicht – und das zu akzep­tieren ist die ehrlich­ste Posi­tion.

Die entschei­dende Frage

  • Nicht: “Hat LeCun Recht oder nicht?” – das ist zu binär.
  • Son­dern: “Wie organ­isieren wir KI-Entwick­lung in ein­er Sit­u­a­tion fun­da­men­taler
  • Unsicher­heit, wo mas­sive Pfad­ab­hängigkeit­en existieren, ver­schiedene Akteure auf unter­schiedliche Par­a­dig­men set­zen und die Evi­denz in bei­de Rich­tun­gen weist?”

Die deutsche und europäis­che Antwort sollte sein:

  • Epis­temis­che Demut: Wir wis­sen nicht, welch­es Par­a­dig­ma gewin­nt
  • Strate­gis­che Diver­si­fika­tion: Nicht alles auf eine Karte set­zen
  • Struk­turelle Flex­i­bil­ität: Piv­ot-fähig bleiben, wenn sich Evi­denz ändert
  • Offen­heit: Open Source und Forschungstrans­parenz max­imieren
  • Kri­tis­che Eval­u­a­tion: PR-Schere erken­nen und benen­nen, ohne in Tech­nikpes­simis­mus zu ver­fall­en

LeCuns War­nung ver­di­ent es, ernst genom­men zu wer­den – nicht als unum­stößliche Wahrheit, son­dern als wichtiges Gegengewicht zu unkri­tis­chem Skalierung­sop­ti­mis­mus. Die Wahrheit liegt ver­mut­lich nicht in den Extrem­po­si­tio­nen, son­dern irgend­wo in der kom­plex­en Mitte zwis­chen “LLMs sind eine Sack­gasse” und “Skalierung löst alles”.

Wer heute strate­gisch über KI nach­denkt, sollte nicht fra­gen: “Wie bekom­men wir bessere LLMs?” oder “Wie bauen wir Welt­mod­elle?”, son­dern: “Wie bleiben wir hand­lungs­fähig in ein­er Sit­u­a­tion radikaler tech­nol­o­gis­ch­er Unsicher­heit?” Das ist die eigentliche Her­aus­forderung – und sie ist sys­temis­ch­er, nicht tech­nis­ch­er Natur.


Quellen:

1. Yann LeCun: “A Path Towards Autonomous Machine Intel­li­gence” (2022)
Typ: Tech­ni­cal Report, Meta AI Research
Rel­e­vanz: LeCuns zen­trale Vision für KI jen­seits von LLMs. Beschreibt Joint-Embed­ding Pre­dic­tive Archi­tec­tures (JEPA) und Welt­mod­ell-Ansätze als Alter­na­tive zu autore­gres­sive Lan­guage Mod­els.
Kernar­gu­ment: Echte Intel­li­genz erfordert die Fähigkeit, Hand­lungs­fol­gen vorherzusagen und Welt­mod­elle aufzubauen – nicht nur sta­tis­tis­che Textgener­ierung.
Link: https://openreview.net/forum?id=BZ5a1r-kVsf

2. Niklas Luh­mann: “Die Wirtschaft der Gesellschaft” (1988)
Typ: Mono­gra­phie, Sys­temthe­o­rie
Rel­e­vanz: The­o­retis­che Grund­lage für die Analyse selb­stre­f­er­en­tieller Sys­teme und oper­a­tiv­er Geschlossen­heit. Erk­lärt, wie wirtschaftliche Sys­teme ihre Umwelt nach eigen­em Code (zahlen/nicht zahlen) beobacht­en und dabei blinde Fleck­en entwick­eln.
Anwen­dung im Essay: Erk­lärt, warum die KI-Indus­trie in Pfad­ab­hängigkeit­en gefan­gen ist – das Sys­tem beobachtet nur noch, was investier­bar ist, nicht was tech­nisch opti­mal wäre.
Ver­füg­barkeit: Suhrkamp Ver­lag

3. Paul A. David: “Clio and the Eco­nom­ics of QWERTY” (1985)
Typ: Jour­nal Arti­cle, Amer­i­can Eco­nom­ic Review
Rel­e­vanz: Klas­sis­che Arbeit zu Pfad­ab­hängigkeit­en in Tech­nolo­giesys­te­men. Zeigt am Beispiel der QWER­TY-Tas­tatur, wie frühe Stan­dar­d­isierun­gen spätere Optio­nen ein­schränken – auch wenn bessere Alter­na­tiv­en existieren.
Anwen­dung im Essay: Erk­lärt tech­nis­che, per­son­elle und reg­u­la­torische Lock-Ins bei LLM-Infra­struk­tur.
DOI: 10.2307/1805621

4. Stu­art Rus­sell & Peter Norvig: “Arti­fi­cial Intel­li­gence: A Mod­ern Approach” (4th ed., 2020)
Typ: Lehrbuch, klas­sis­che KI
Rel­e­vanz: Definiert fun­da­men­tale Eigen­schaften von Agen­ten (Autonomie, Reak­tiv­ität, Proak­tiv­ität, soziale Fähigkeit). Beschreibt klas­sis­che Pla­nungsver­fahren (STRIPS, PDDL) und Mul­ti-Agen­ten-Sys­teme.
Anwen­dung im Essay: Kon­trastiert echte Agen­ten mit aktuellen LLM-Wrap­pern. Zeigt, was State Rep­re­sen­ta­tion, Tran­si­tion Mod­els und Goal-Direct­ed Search bedeuten.
Ver­füg­barkeit: Pear­son, Stan­dard-Lehrbuch

5. Jared Kaplan et al.: “Scal­ing Laws for Neur­al Lan­guage Mod­els” (2020)
Typ: Research Paper, Ope­nAI
Rel­e­vanz: Empirische Basis für die “Skalierung löst alles”-Hypothese. Zeigt, dass LLM-Per­for­mance vorher­sag­bar mit Com­pute, Dat­en und Para­me­tern skaliert.
Gegen­po­si­tion zu LeCun: Wenn Scal­ing Laws weit­er gel­ten, kön­nten auch Rea­son­ing-Fähigkeit­en emergieren.
Link: https://arxiv.org/abs/2001.08361

6. Sub­barao Kamb­ham­pati: “Can Large Lan­guage Mod­els Rea­son and Plan?” (2024)
Typ: Posi­tion Paper / Sur­vey
Rel­e­vanz: Dif­feren­zierte Analyse der LLM-Lim­i­ta­tio­nen. Stimmt LeCuns the­o­retis­ch­er Kri­tik zu, betont aber prak­tis­chen Nutzen und wirtschaftliche Rel­e­vanz. Unter­schei­det zwis­chen “Rea­son­ing über Pläne” und “echtem Pla­nen”.
Posi­tion: LLMs sind nüt­zliche kog­ni­tive Werkzeuge, aber keine echt­en Agen­ten.
Link: https://arxiv.org/abs/2403.04121

7. Deep­Mind: “A gen­er­al rein­force­ment learn­ing algo­rithm that mas­ters chess, sho­gi, and Go through self-play” (Sil­ver et al., 2018)
Typ: Research Paper, Nature
Rel­e­vanz: Alp­haZe­ro als Beispiel für Mod­el-Based Plan­ning. Zeigt, wie echte Voraus­pla­nung durch Monte Car­lo Tree Search funk­tion­iert – fun­da­men­tal anders als LLM-Textgener­ierung.
Kon­trast: Während Alp­haZe­ro Züge simuliert und bew­ertet, “hal­luzinieren” LLMs Pläne.
DOI: 10.1126/science.aar6404

8. Wei et al.: “Emer­gent Abil­i­ties of Large Lan­guage Mod­els” (2022)
Typ: Research Paper, Google Research
Rel­e­vanz: Empirische Evi­denz für Emer­genz-Phänomene – Fähigkeit­en, die bei kleineren Mod­ellen nicht existieren, tauchen plöt­zlich bei größeren auf.
Gege­nar­gu­ment zu LeCun: Vielle­icht emergieren auch Pla­nungs­fähigkeit­en bei weit­er­er Skalierung, auch wenn nicht architek­turell vorher­sag­bar.
Link: https://arxiv.org/abs/2206.07682

9. Geof­frey Hin­ton: “The Future of AI and Its Impact on Soci­ety” – Inter­views und Stel­lung­nah­men (2023–2024)
Typ: Pub­lic State­ments, Inter­views
Rel­e­vanz: Hin­tons War­nung vor exis­ten­ziellen Risiken durch KI – direk­te Gegen­po­si­tion zu LeCuns “Apoka­lypse-Szenar­ien sind über­trieben”.
Ironie: Bei­de Tur­ing-Award-Gewin­ner, völ­lig ent­ge­genge­set­zte Risikoein­schätzung. Zeigt, dass selb­st Experten fun­da­men­tal uneins sind.
Quelle: Diverse Inter­views (MIT Tech­nol­o­gy Review, NYT, Guardian)

10. Michael Wooldridge: “An Intro­duc­tion to Mul­ti­A­gent Sys­tems” (2nd ed., 2009)
Typ: Lehrbuch, Mul­ti-Agen­ten-Sys­teme
Rel­e­vanz: Definiert Anforderun­gen an echte Mul­ti-Agen­ten-Sys­teme: The­o­ry of Mind, Koor­di­na­tion­spro­tokolle, Ver­hand­lung, Koali­tions­bil­dung, Game-The­o­ret­ic Opti­miza­tion.
Anwen­dung im Essay: Zeigt, warum “mehrere LLMs, die miteinan­der chat­ten” keine echt­en Mul­ti-Agen­ten-Sys­teme sind. Beschreibt, was für agen­tic com­merce wirk­lich nötig wäre.
Ver­füg­barkeit: Wiley, Stan­dard-Ref­erenz

Ergänzende Quellen 

11. Bri­an Arthur: “Com­pet­ing Tech­nolo­gies, Increas­ing Returns, and Lock-In by His­tor­i­cal Events” (1989)
Ökonomis­che The­o­rie zu Pfad­ab­hängigkeit­en und tech­nol­o­gis­chen Lock-Ins.

12. LeCun, Ben­gio, Hin­ton: “Deep Learn­ing” (Nature, 2015)
Die drei Tur­ing-Award-Gewin­ner im Kon­sens – vor der LLM-Kon­tro­verse.

13. Peter Druck­er: “The Prac­tice of Man­age­ment” (1954)
Man­age­ment-The­o­rie zu organ­i­sa­tionaler Trägheit und Wider­stand gegen Par­a­dig­men­wech­sel.

14. Ope­nAI: “GPT‑4 Tech­ni­cal Report” (2023)
Empirische Dat­en zu LLM-Capa­bil­i­ties und Lim­i­ta­tio­nen aus erster Hand.

15. Anthrop­ic: “Con­sti­tu­tion­al AI: Harm­less­ness from AI Feed­back” (2022)
RLHF und Align­ment-Ansätze – rel­e­vant für die Frage, ob LLMs “steuer­bar” genug für Agen­ten sind.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert