Die Euphorie um Mul­ti-Agent-Sys­teme ver­spricht autonome KI-Teams, die kom­plexe Auf­gaben wie von selb­st lösen. Doch aktuelle empirische Befunde zeigen: Ab ein­er bes­timmten Schwelle fressen Koor­di­na­tion­skosten die Effizien­zgewinne auf. Die Organ­i­sa­tion­s­the­o­rie hätte das voraus­sagen kön­nen – denn was für men­schliche Organ­i­sa­tio­nen gilt, gilt offen­bar auch für ihre dig­i­tal­en Nach­fol­ger.


Die Wiederkehr eines alten Prob­lems

Es gehört zu den eigen­tüm­lichen Wieder­hol­un­gen der Tech­nolo­giegeschichte, dass jede neue Infra­struk­tur zunächst die Fehler ihrer Vorgänger repro­duziert, bevor sie eigene macht. Die gegen­wär­tige Debat­te um Mul­ti-Agent-Sys­teme – jene Architek­turen, in denen mehrere spezial­isierte KI-Agen­ten arbeit­steilig Auf­gaben lösen sollen – liefert dafür ein Lehrstück.

Das Ver­sprechen klingt bestechend: Statt eines einzel­nen, mit allem über­forderten Agen­ten übernehmen spezial­isierte Ein­heit­en jew­eils Teilauf­gaben. Ein Agent recher­chiert, ein­er analysiert, ein­er vali­diert, ein­er for­muliert. Die Analo­gie zum men­schlichen Team liegt nahe, und mit ihr die Hoff­nung auf Skalier­barkeit ohne Gren­zen.

Doch empirische Unter­suchun­gen zeich­nen ein ernüchtern­des Bild. Ab einem Sät­ti­gungspunkt – die Stu­di­en verorten ihn bei etwa 45 Prozent Task-Accu­ra­cy eines einzel­nen Agen­ten – ver­schlechtern zusät­zliche Agen­ten ten­den­ziell sowohl Qual­ität als auch Effizienz. Die Koor­di­na­tion frisst, was die Spezial­isierung gewin­nt.

Coase hat­te recht – auch dig­i­tal

Ronald Coase stellte 1937 eine Frage, die sei­ther die Organ­i­sa­tion­sökonomie prägt: Warum gibt es Unternehmen? Seine Antwort ver­wies auf Transak­tion­skosten – jene Aufwände, die entste­hen, wenn Akteure sich koor­dinieren, Verträge schließen, Infor­ma­tio­nen aus­tauschen und Ver­hal­ten überwachen müssen. Der Markt, so Coase, ist kein kosten­los­er Koor­di­na­tion­s­mech­a­nis­mus; ab ein­er bes­timmten Kom­plex­ität ist hier­ar­chis­che Organ­i­sa­tion effizien­ter.

Oliv­er Williamson präzisierte diese Ein­sicht in den 1970er und 1980er Jahren. Er iden­ti­fizierte drei zen­trale Treiber von Transak­tion­skosten: Unsicher­heit über kün­ftige Entwick­lun­gen, die Häu­figkeit von Transak­tio­nen und vor allem die Fak­tor­spez­i­fität – also die Frage, wie stark Investi­tio­nen an bes­timmte Beziehun­gen gebun­den sind. Je höher die Spez­i­fität, desto anfäl­liger die Transak­tion für oppor­tunis­tis­ches Ver­hal­ten, desto höher die Absicherungskosten.

Was hat das mit KI-Agen­ten zu tun? Mehr, als die tech­nikgetriebene Debat­te wahrn­immt. Jede Schnittstelle zwis­chen Agen­ten ist eine Transak­tion. Jede Über­gabe von Kon­text, jede Del­e­ga­tion von Teilauf­gaben, jede Vali­dierung von Zwis­ch­en­ergeb­nis­sen erzeugt Over­head. Die Agen­ten operieren unter Unsicher­heit – sie wis­sen nicht voll­ständig, was die anderen tun. Ihre Kon­textfen­ster sind begren­zt, Infor­ma­tio­nen gehen bei jed­er Über­gabe ver­loren. Und die Spez­i­fität ist hoch: Ein Agent, der für eine bes­timmte Teilauf­gabe opti­miert wurde, ist nicht ohne Weit­eres in anderen Kon­tex­ten ein­set­zbar.

Die empirisch beobachtete “Rule of 4” – die Empfehlung, Mul­ti-Agent-Sys­teme auf max­i­mal vier Agen­ten zu begren­zen – ist nichts anderes als ein Transak­tion­skostenop­ti­mum. Ab ein­er bes­timmten Team­größe über­steigen die Koor­di­na­tion­skosten die Spezial­isierungs­gewinne.

Begren­zte Ratio­nal­ität und die Illu­sion der Schwarmintel­li­genz

Her­bert Simon prägte in den 1950er Jahren den Begriff der “bound­ed ratio­nal­i­ty” – der begren­zten Ratio­nal­ität. Men­schen, so Simon, opti­mieren nicht, sie “sat­is­fizieren”: Sie suchen nicht die beste Lösung, son­dern eine, die gut genug ist, weil die kog­ni­tiv­en Kosten voll­ständi­ger Opti­mierung zu hoch wären.

LLM-basierte Agen­ten unter­liegen ein­er analo­gen Beschränkung. Ihre Kon­textfen­ster sind endlich, ihre Aufmerk­samkeit frag­men­tiert, ihre Fähigkeit zur Selb­stko­r­rek­tur begren­zt. Die Hoff­nung, durch Ver­net­zung viel­er begren­zter Intel­li­gen­zen eine unbe­gren­zte zu erzeu­gen, scheit­ert an einem ein­fachen Prob­lem: Kom­mu­nika­tion ist ver­lust­be­haftet. Jede Zusam­men­fas­sung, jede Über­gabe, jede Abstrak­tion reduziert Infor­ma­tion. In sequen­ziellen Work­flows akku­mulieren sich diese Ver­luste; in par­al­le­len entste­hen Kon­sis­ten­zprob­leme.

Die Stu­di­en bestäti­gen das: Bei Auf­gaben, die nicht gut decom­posier­bar sind – also nicht sauber in unab­hängige Teil­prob­leme zer­legt wer­den kön­nen –, per­formt ein einzel­ner, gut instru­men­tiert­er Agent oft bess­er als ein Team. Der Schwarm ist kein Ausweg aus der Kom­plex­ität, son­dern ver­schiebt sie nur in die Orchestrierungsebene.

Gigeren­z­ers Gegengift: Schnelle und sparsame Heuris­tiken

Wenn begren­zte Ratio­nal­ität das Prob­lem ist, was ist dann die Lösung? Die nahe­liegend…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert