Ein neues Frame­work namens Memen­to-Skills erlaubt es Agen­ten, ihre Fähigkeit­en im laufend­en Betrieb umzuschreiben, ohne das Basis­mod­ell neu zu trainieren. Die Schlagzeile klingt nach Selb­stverbesserung – tat­säch­lich ver­schiebt das Paper aber nur die Stelle, an der die eigentliche Frage gestellt wer­den muss: Wer set­zt die Kri­te­rien, gegen die solche Umschrei­bun­gen vali­diert wer­den? Eine Einord­nung jen­seits des Durch­bruch­snar­ra­tivs.


Die von Ven­ture­Beat gemeldete Arbeit um Jun Wang und Kol­le­gen führt mit Memen­to-Skills ein Frame­work ein, das in der aktuellen Debat­te um adap­tive Agen­ten eine genauere Lek­türe ver­di­ent, als die üblichen Durch­bruch­süber­schriften nahele­gen. Der Kern ist schnell beschrieben: Das Sprach­mod­ell bleibt einge­froren, die Skill-Bib­lio­thek des Agen­ten dage­gen wird verän­der­lich. Skills sind hier nicht Tex­tan­weisun­gen, son­dern aus­führbare Arte­fak­te, die bei Feed­back aus der Umge­bung mutiert und über eine automa­tis­che Unit-Test-Gate in die glob­ale Library zurück­geschrieben wer­den. Die Autoren posi­tion­ieren ihren Ansatz expliz­it als Ergänzung zu beste­hen­den Agen­ten-Stacks wie Claude Code oder Open­Claw und rei­hen sich damit in eine ganze Welle ähn­lich gelagert­er Vorschläge ein – ACE mit seinen “evolv­ing play­books”, das frühere Memen­to aus Huawei Noah’s Ark Lab, Meta­Claw der AIM­ING-Gruppe in Chapel Hill. Die gemein­same Bewe­gung ist unüberse­hbar: Adap­ta­tion wan­dert aus den Mod­ell­gewicht­en in die Agen­ten-Schicht.

Bevor man diesen Trend als Schritt in Rich­tung autonomer Selb­stverbesserung deutet, lohnt es sich, die method­is­che Pointe des Papers her­auszuschälen. Sie liegt nicht im Rewrit­ing selb­st, son­dern in der Kri­tik an dem, was es erset­zt. Gängige Skill-Retrieval-Mech­a­nis­men in RAG-arti­gen Architek­turen suchen nach seman­tis­ch­er Ähn­lichkeit – und genau hier, so die Autoren, entste­ht ein sys­tem­a­tis­ches Missver­ständ­nis. Ihr Lehrbuch­beispiel ist ein Agent, der für ein Prob­lem in der Rück­er­stat­tungs­bear­beitung ein Pass­word-Reset-Skript her­anzieht, weil bei­de Texte mit über­lap­pen­der Enter­prise-Ter­mi­nolo­gie operieren. Seman­tis­che Nähe, so das Argu­ment, garantiert keine behav­iorale Nüt­zlichkeit. Daraus wird die Kon­se­quenz gezo­gen, Skill-Man­age­ment als Rein­force­ment-Prob­lem neu zu for­mulieren: Der Wert eines Skills entschei­det sich an seinem langfristi­gen Beitrag zum Work­flow, nicht an sein­er Ein­bet­tungs­dis­tanz zur Anfrage. Diese begrif­fliche Ver­schiebung ist die eigentliche konzep­tionelle Leis­tung des Papers – und sie ver­di­ent, ernst genom­men zu wer­den, weil sie ein Grund­prob­lem der gesamten Retrieval-Debat­te benen­nt, das seit ger­aumer Zeit unter dem Tep­pich liegt.

Doch genau an dieser Stelle, wo das Paper die Lat­te hoch legt, wird auch sicht­bar, wo es sie wieder unter­läuft. Die Unit-Test-Gate, auf die das Sys­tem seine Muta­tio­nen zurechtschnei­det, pro­duziert ihre Tests selb­st. Ein Agent, der sich seine eige­nen Prüfkri­te­rien gener­iert und gegen diese Kri­te­rien sein Ver­hal­ten opti­miert, bewegt sich in einem geschlosse­nen Kreis, dessen äußere Ref­erenz nicht mitwächst. Das ist kein Imple­men­tierungs­de­tail, son­dern ein klas­sis­ch­er Good­hart-Fall: Ein Maßstab, der Bestandteil der Opti­mierung wird, hört auf, ein guter Maßstab zu sein. Was das Ver­fahren tech­nisch absichert – Kon­sis­tenz zwis­chen Skill und eigen­em Test­fall – ist ger­ade nicht das, was in ein­er realen Domäne zählt. Wang selb­st for­muliert die Ein­sicht im Inter­view, wenn er sagt, dass ver­lässliche Selb­stverbesserung ein “well-designed eval­u­a­tion or judge sys­tem” voraus­set­ze und dass Selb­st­mod­i­fika­tion struk­turi­ert wer­den müsse als geführte Selb­ste…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert