Ein neues KI-Framework aus Santa Barbara lässt Agenten gemeinsam evolvieren – und erreicht dabei die Leistung menschlich designter Systeme. Wer genau hinschaut, erkennt eine Idee, die John Holland vor dreißig Jahren skizziert hat. Und er erkennt, warum sie damals scheiterte – und was diesmal anders sein könnte.
Es gibt Ideen, die ihrer Zeit voraus sind. Und es gibt Ideen, die ihrer Zeit so weit voraus sind, dass sie mehrmals neu erfunden werden müssen, bevor die technische Infrastruktur mit ihnen Schritt hält. John Hollands Theorie der Complex Adaptive Systems (cas) gehört zu dieser zweiten Kategorie.
Als die Forscher der University of California, Santa Barbara, ihr Group-Evolving Agents-Framework (GEA) vorstellten, klang das Begleitnarrativ nach Disruption: KI-Agenten, die sich selbst organisieren, gemeinsam evolvieren, ohne menschliches Ingenieurwissen auskommen. Auf dem SWE-bench-Benchmark – dem Gradmesser für autonomes Software-Engineering – erreichte GEA eine Erfolgsquote von 71 Prozent und stellte damit das bislang führende, von Menschen designte Open-Source-Framework ein. Das ist ein echter Leistungssprung, keine Marketing-Zahl.
Und doch: Wer Hollands Arbeiten kennt, wird beim Lesen des GEA-Papers ein eigentümliches Déjà-vu erleben.
Das Grundproblem: Evolution in Silos
Die gängigen selbstevolvierenden Agentensysteme arbeiten nach einem Schema, das Holland bereits in den 1970er Jahren in seinen frühen genetischen Algorithmen beschrieben hatte: Eine Elternpopulation produziert Nachkommen, gute Varianten werden selektiert, schlechte aussortiert. Das Ergebnis ist eine Baumstruktur der Evolution – Äste, die sich trennen und nie wieder berühren.
Das Problem dieser Architektur ist strukturell. Wenn ein Ast eine nützliche Entdeckung macht – eine effizientere Debugging-Strategie, ein neues Werkzeug, einen besseren Workflow – und dieser Ast dann in der Selektion nicht überlebt, geht die Entdeckung verloren. Unwiederbringlich. Die Evolution reinigt sich selbst von ihren eigenen Innovationen.
GEA bricht mit genau dieser Isolation. Agenten teilen Werkzeuge und Erfahrungen gruppenübergreifend, bevor die Selektion stattfindet. Das Kollektiv lernt, nicht nur das Individuum. Wer Hollands spätes Werk kennt – insbesondere seine Arbeiten am Santa Fe Institute und das Echo-Modell – erkennt darin unmittelbar das Prinzip der tag-based interaction und des gruppenbasierten Lernens, das Holland als entscheidend für das Entstehen echter Adaptation betrachtete.
Was Holland wirklich meinte
Man tut Holland Unrecht, wenn man ihn auf genetische Algorithmen reduziert. Seine eigentliche Frage war weitreichender: Unter welchen Bedingungen entstehen aus einfachen, lokalen Interaktionen komplexe, adaptive Systeme mit Eigenschaften, die auf der Ebene der Einzelkomponenten nicht vorherzusagen sind? Emergenz also – nicht als mystisches Konzept, sondern als präzise formuliertes wissenschaftliches Problem.
In diesem Rahmen waren genetische Algorithmen nur ein Spezialfall. Das allgemeinere Prinzip war das Complex Adaptive System (CAS): eine Population von Agenten, die auf Basis lokaler Informationen agieren, dabei aber durch Interaktion und Feedback globale Strukturen erzeugen, die kein einzelner Agent geplant hat. Finanzmärkte, Immunsysteme, Ameisenstämme, Ökosysteme – Holland sah überall dasselbe Grundmuster.
Das entscheidende Merkmal eines CAS ist dabei nicht die Evolution an sich, sondern die Ko-evolution: Agenten verändern nicht nur sich selbst als Reaktion auf die Umwelt, sondern sie sind die Umwelt füreinander. Ihre Interaktionen gestalten den Selektionsdruck, dem sie selbst ausgesetzt sind. Ein genetischer Algorithmus, der Agenten in isolierten Lineages evolviert, bildet genau das nicht ab.
GEA nähert sich diesem Ideal an. Die gruppenbasierte Fehlerkorrektur – das System reparierte absichtlich eingeschleuste Bugs in durchschnittlich 1,4 Iterationen, während isolierte Ansätze fünf benötigten – ist ein Hinweis auf genau jene kollektive Robustheit, die Holland als Charakteristikum funktionierender CAS beschrieb.
Das ungelöste Problem: Fitness und Generalisierung
Hier allerdings beginnt die kritische Lektüre. Hollands CAS-Theorie hatte stets eine zentrale Spannung: Was ist die richtige Fitnessfunktion? In natürlichen Systemen ist die Fitnessfunktion die Umwelt selbst – ein unendlich komplexes, sich dynamisch veränderndes System, das keine Benchmark-Kommission definiert hat. In technischen Systemen muss sie explizit spezifiziert werden. Und damit taucht das alte Problem wieder auf.
GEA evolviert auf SWE-bench Verified. Das ist ein sorgfältig kuratierter Benchmark realer GitHub-Issues – kein Spielzeugproblem, aber auch keine offene Welt. Die Frage, die Holland stellen würde, lautet: Was lernt das System wirklich? Lernt es, Software zu verstehen und zu reparieren? Oder lernt es, auf den spezifischen Selektionsdruck von SWE-bench zu reagieren?
Das ist keine akademische Spitzfindigkeit. Die Geschichte evolutionärer Algorithmen ist durchzogen von Systemen, die auf ihren Trainings-Fitnessfunktionen…
