Ein neues KI-Frame­work aus San­ta Bar­bara lässt Agen­ten gemein­sam evolvieren – und erre­icht dabei die Leis­tung men­schlich design­ter Sys­teme. Wer genau hin­schaut, erken­nt eine Idee, die John Hol­land vor dreißig Jahren skizziert hat. Und er erken­nt, warum sie damals scheit­erte – und was dies­mal anders sein kön­nte.


Es gibt Ideen, die ihrer Zeit voraus sind. Und es gibt Ideen, die ihrer Zeit so weit voraus sind, dass sie mehrmals neu erfun­den wer­den müssen, bevor die tech­nis­che Infra­struk­tur mit ihnen Schritt hält. John Hol­lands The­o­rie der Com­plex Adap­tive Sys­tems (cas) gehört zu dieser zweit­en Kat­e­gorie.

Als die Forsch­er der Uni­ver­si­ty of Cal­i­for­nia, San­ta Bar­bara, ihr Group-Evolv­ing Agents-Frame­work (GEA) vorstell­ten, klang das Begleit­nar­ra­tiv nach Dis­rup­tion: KI-Agen­ten, die sich selb­st organ­isieren, gemein­sam evolvieren, ohne men­schlich­es Inge­nieur­wis­sen auskom­men. Auf dem SWE-bench-Bench­mark – dem Gradmess­er für autonomes Soft­ware-Engi­neer­ing – erre­ichte GEA eine Erfol­gsquote von 71 Prozent und stellte damit das bis­lang führende, von Men­schen designte Open-Source-Frame­work ein. Das ist ein echter Leis­tungssprung, keine Mar­ket­ing-Zahl.

Und doch: Wer Hol­lands Arbeit­en ken­nt, wird beim Lesen des GEA-Papers ein eigen­tüm­lich­es Déjà-vu erleben.

Das Grund­prob­lem: Evo­lu­tion in Silos

Die gängi­gen selb­ste­volvieren­den Agen­ten­sys­teme arbeit­en nach einem Schema, das Hol­land bere­its in den 1970er Jahren in seinen frühen genetis­chen Algo­rith­men beschrieben hat­te: Eine Eltern­pop­u­la­tion pro­duziert Nachkom­men, gute Vari­anten wer­den selek­tiert, schlechte aus­sortiert. Das Ergeb­nis ist eine Baum­struk­tur der Evo­lu­tion – Äste, die sich tren­nen und nie wieder berühren.
Das Prob­lem dieser Architek­tur ist struk­turell. Wenn ein Ast eine nüt­zliche Ent­deck­ung macht – eine effizien­tere Debug­ging-Strate­gie, ein neues Werkzeug, einen besseren Work­flow – und dieser Ast dann in der Selek­tion nicht über­lebt, geht die Ent­deck­ung ver­loren. Unwieder­bringlich. Die Evo­lu­tion reinigt sich selb­st von ihren eige­nen Inno­va­tio­nen.

GEA bricht mit genau dieser Iso­la­tion. Agen­ten teilen Werkzeuge und Erfahrun­gen grup­penüber­greifend, bevor die Selek­tion stat­tfind­et. Das Kollek­tiv lernt, nicht nur das Indi­vidu­um. Wer Hol­lands spätes Werk ken­nt – ins­beson­dere seine Arbeit­en am San­ta Fe Insti­tute und das Echo-Mod­ell – erken­nt darin unmit­tel­bar das Prinzip der tag-based inter­ac­tion und des grup­pen­basierten Ler­nens, das Hol­land als entschei­dend für das Entste­hen echter Adap­ta­tion betra­chtete.

Was Hol­land wirk­lich meinte

Man tut Hol­land Unrecht, wenn man ihn auf genetis­che Algo­rith­men reduziert. Seine eigentliche Frage war weitre­ichen­der: Unter welchen Bedin­gun­gen entste­hen aus ein­fachen, lokalen Inter­ak­tio­nen kom­plexe, adap­tive Sys­teme mit Eigen­schaften, die auf der Ebene der Einzelkom­po­nen­ten nicht vorherzusagen sind? Emer­genz also – nicht als mys­tis­ches Konzept, son­dern als präzise for­muliertes wis­senschaftlich­es Prob­lem.

In diesem Rah­men waren genetis­che Algo­rith­men nur ein Spezial­fall. Das all­ge­meinere Prinzip war das Com­plex Adap­tive Sys­tem (CAS): eine Pop­u­la­tion von Agen­ten, die auf Basis lokaler Infor­ma­tio­nen agieren, dabei aber durch Inter­ak­tion und Feed­back glob­ale Struk­turen erzeu­gen, die kein einzel­ner Agent geplant hat. Finanzmärk­te, Immun­sys­teme, Ameisen­stämme, Ökosys­teme – Hol­land sah über­all das­selbe Grund­muster.

Das entschei­dende Merk­mal eines CAS ist dabei nicht die Evo­lu­tion an sich, son­dern die Ko-evo­lu­tion: Agen­ten verän­dern nicht nur sich selb­st als Reak­tion auf die Umwelt, son­dern sie sind die Umwelt füreinan­der. Ihre Inter­ak­tio­nen gestal­ten den Selek­tions­druck, dem sie selb­st aus­ge­set­zt sind. Ein genetis­ch­er Algo­rith­mus, der Agen­ten in isolierten Lin­eages evolviert, bildet genau das nicht ab.

GEA nähert sich diesem Ide­al an. Die grup­pen­basierte Fehlerko­r­rek­tur – das Sys­tem repari­erte absichtlich eingeschleuste Bugs in durch­schnit­tlich 1,4 Iter­a­tio­nen, während isolierte Ansätze fünf benötigten – ist ein Hin­weis auf genau jene kollek­tive Robus­theit, die Hol­land als Charak­ter­is­tikum funk­tion­ieren­der CAS beschrieb.

Das ungelöste Prob­lem: Fit­ness und Gen­er­al­isierung

Hier allerd­ings begin­nt die kri­tis­che Lek­türe. Hol­lands CAS-The­o­rie hat­te stets eine zen­trale Span­nung: Was ist die richtige Fit­ness­funk­tion? In natür­lichen Sys­te­men ist die Fit­ness­funk­tion die Umwelt selb­st – ein unendlich kom­plex­es, sich dynamisch verän­dern­des Sys­tem, das keine Bench­mark-Kom­mis­sion definiert hat. In tech­nis­chen Sys­te­men muss sie expliz­it spez­i­fiziert wer­den. Und damit taucht das alte Prob­lem wieder auf.

GEA evolviert auf SWE-bench Ver­i­fied. Das ist ein sorgfältig kuratiert­er Bench­mark real­er GitHub-Issues – kein Spielzeug­prob­lem, aber auch keine offene Welt. Die Frage, die Hol­land stellen würde, lautet: Was lernt das Sys­tem wirk­lich? Lernt es, Soft­ware zu ver­ste­hen und zu repari­eren? Oder lernt es, auf den spez­i­fis­chen Selek­tions­druck von SWE-bench zu reagieren?

Das ist keine akademis­che Spitzfind­igkeit. Die Geschichte evo­lu­tionär­er Algo­rith­men ist durch­zo­gen von Sys­te­men, die auf ihren Train­ings-Fit­ness­funk­tio­nen…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert