Getting your Trinity Audio player ready...

Anthrop­ic hat in einem Blog­beitrag Ein­blicke in die Architek­tur seines neuen „Research“-Features für das Sprach­mod­ell Claude gegeben. Der Ansatz basiert auf einem Mul­ti-Agen­ten-Sys­tem, das Auf­gaben par­al­lel löst, anstatt sie lin­ear abzuar­beit­en.

Funk­tion­sweise:

Ein Haupt-Agent („Lead-Agent“) zer­legt kom­plexe Nutzer­an­fra­gen in Teilauf­gaben und delegiert diese an spezial­isierte Unter-Agen­ten („Sub-Agents“). Diese arbeit­en unab­hängig, nutzen Werkzeuge wie die Web­suche und liefern Ergeb­nisse, die der Haupt-Agent zusam­men­führt. Dieser Ansatz steigert die Leis­tung erhe­blich und über­trifft in Tests ein einzelnes Top-Mod­ell um über 90 %.

Her­aus­forderun­gen:

Die hohe Leis­tung hat ihren Preis: Das Sys­tem ver­braucht bis zu 15-mal mehr Tokens als herkömm­liche Chat-Inter­ak­tio­nen, was die Wirtschaftlichkeit lim­i­tiert. Zudem ist das Sys­tem ungeeignet für Auf­gaben mit stark voneinan­der abhängi­gen Arbeitss­chrit­ten, wie etwa Pro­gram­mierung.

Tech­nis­che Erken­nt­nisse:

  • Prompt-Engi­neer­ing: Der Haupt-Agent muss effizient delegieren kön­nen, um Dop­pelar­beit und Detail­ver­luste zu ver­mei­den.
  • Werkzeug-Design: Klare Tool-Beschrei­bun­gen sind essen­ziell, um Fehlleitun­gen zu ver­hin­dern. Ein KI-Agent opti­mierte diese Beschrei­bun­gen und steigerte die Effizienz um 40 %.
  • Fehlerkon­trolle: Wieder­auf­nahme-Mech­a­nis­men und „Rain­bow Deploy­ments“ sor­gen für Sta­bil­ität bei Fehlern oder Sys­temup­dates.

Bew­er­tung:

Die Ergeb­nisse wer­den von ein­er KI („LLM-as-a-Judge“) bew­ertet, jedoch bleibt manuelle Kon­trolle unverzicht­bar.

Der Bericht zeigt die Her­aus­forderun­gen und Poten­ziale von Mul­ti-Agen­ten-Sys­te­men und hebt her­vor, dass Fortschritte in der KI zunehmend von intel­li­gen­ter Orchestrierung statt nur von größer­er Mod­ell­größe abhän­gen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert