Getting your Trinity Audio player ready...

Vor dreißig Jahren for­mulierte ein franzö­sis­ch­er Infor­matik­er die These, dass Intel­li­genz aus Inter­ak­tion emergiert – nicht aus indi­vidu­eller Kapaz­ität. Die KI-Indus­trie ignori­erte ihn, feierte den mono­lithis­chen »Denker« und musste nun fest­stellen: Fer­ber hat­te recht. Die Geschichte ein­er the­o­retis­chen Reha­bil­i­tierung.


I. Die Ironie des Fortschritts

Es gibt Momente in der Wis­senschafts­geschichte, in denen sich Par­a­dig­men mit ein­er Vehe­menz durch­set­zen, die jeden Wider­spruch erstickt. Der Tri­umph der großen Sprach­mod­elle – GPT, Claude, Gem­i­ni – war ein solch­er Moment. Hier schien sich zu man­i­festieren, was die klas­sis­che KI-Forschung immer erhofft hat­te: Intel­li­genz als skalier­bare Eigen­schaft einzel­ner Sys­teme, imple­men­tiert in mon­u­men­tal­en Architek­turen mit Hun­derten Mil­liar­den Para­me­tern.

Die Ironie dabei: Dieser Tri­umph reha­bil­i­tierte exakt jenes Par­a­dig­ma des isolierten »Denkers«, das Jacques Fer­ber bere­its Mitte der 1990er Jahre als konzeptuelle Sack­gasse iden­ti­fiziert hat­te. In seinem Werk über Mul­ti­a­gen­ten­sys­teme – das franzö­sis­che Orig­i­nal erschien 1995, die englis­che Über­set­zung 1999 – for­mulierte der Mont­pel­lier­er Infor­matik­er eine fun­da­men­tale Kri­tik, die sich gegen die gesamte Tra­di­tion der sym­bol­is­chen KI richtete.

Fer­bers Kern­these: Intel­li­genz ist keine indi­vidu­elle, vom sozialen Kon­text ablös­bare Eigen­schaft. Sie emergiert aus Inter­ak­tion. Der Ver­such, »Denker« zu kon­stru­ieren, die in ihren eige­nen Wel­ten eingeschlossen operieren, verken­nt die fun­da­men­tale Sozial­ität kog­ni­tiv­er Prozesse. Was wir Intel­li­genz nen­nen, wird maßge­blich durch Inter­ak­tio­nen mit der Umwelt geprägt – nicht durch isolierte Ver­ar­beitungska­paz­ität.

Die Geschichte der kün­stlichen Intel­li­genz schien diese These zu wider­legen. Dann kam 2024.

II. Die Gren­zen des Mono­lithen

Was die Indus­trie in den ver­gan­genen zwei Jahren ler­nen musste, liest sich wie eine nachträgliche Bestä­ti­gung von Fer­bers Diag­nose. Die großen Sprach­mod­elle, so beein­druck­end ihre Fähigkeit­en in isolierten Auf­gaben auch sein mögen, stoßen bei kom­plex­en, mehrstu­fi­gen Prob­lem­lö­sun­gen an sys­tem­a­tis­che Gren­zen.

Kon­textbeschränkun­gen lim­i­tieren die Fähigkeit zur Infor­ma­tionsver­fol­gung über län­gere Inter­ak­tio­nen hin­weg. Langzeit­pla­nungss­chwierigkeit­en entste­hen bei der Anpas­sung an uner­wartete Prob­leme. Knowl­edge Drift führt zur Ver­stärkung und Fortpflanzung von Fehlern. Anders als Men­schen, die Infor­ma­tio­nen natür­lich fil­tern, zeigen große Sprach­mod­elle eine Ten­denz zur kog­ni­tiv­en Verz­er­rungsver­stärkung – sie ampli­fizieren Fehler, anstatt sie zu kor­rigieren.

Diese Prob­leme – begren­zte Kon­textfen­ster, man­gel­nde Pla­nungs­fähigkeit, Hal­luz­i­na­tio­nen – zwin­gen die Indus­trie zurück zu verteil­ten Architek­turen. Die Forschung explo­ri­ert zunehmend hori­zo…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert