Die Euphorie um Multi-Agent-Systeme verspricht autonome KI-Teams, die komplexe Aufgaben wie von selbst lösen. Doch aktuelle empirische Befunde zeigen: Ab einer bestimmten Schwelle fressen Koordinationskosten die Effizienzgewinne auf. Die Organisationstheorie hätte das voraussagen können – denn was für menschliche Organisationen gilt, gilt offenbar auch für ihre digitalen Nachfolger.
Die Wiederkehr eines alten Problems
Es gehört zu den eigentümlichen Wiederholungen der Technologiegeschichte, dass jede neue Infrastruktur zunächst die Fehler ihrer Vorgänger reproduziert, bevor sie eigene macht. Die gegenwärtige Debatte um Multi-Agent-Systeme – jene Architekturen, in denen mehrere spezialisierte KI-Agenten arbeitsteilig Aufgaben lösen sollen – liefert dafür ein Lehrstück.
Das Versprechen klingt bestechend: Statt eines einzelnen, mit allem überforderten Agenten übernehmen spezialisierte Einheiten jeweils Teilaufgaben. Ein Agent recherchiert, einer analysiert, einer validiert, einer formuliert. Die Analogie zum menschlichen Team liegt nahe, und mit ihr die Hoffnung auf Skalierbarkeit ohne Grenzen.
Doch empirische Untersuchungen zeichnen ein ernüchterndes Bild. Ab einem Sättigungspunkt – die Studien verorten ihn bei etwa 45 Prozent Task-Accuracy eines einzelnen Agenten – verschlechtern zusätzliche Agenten tendenziell sowohl Qualität als auch Effizienz. Die Koordination frisst, was die Spezialisierung gewinnt.
Coase hatte recht – auch digital
Ronald Coase stellte 1937 eine Frage, die seither die Organisationsökonomie prägt: Warum gibt es Unternehmen? Seine Antwort verwies auf Transaktionskosten – jene Aufwände, die entstehen, wenn Akteure sich koordinieren, Verträge schließen, Informationen austauschen und Verhalten überwachen müssen. Der Markt, so Coase, ist kein kostenloser Koordinationsmechanismus; ab einer bestimmten Komplexität ist hierarchische Organisation effizienter.
Oliver Williamson präzisierte diese Einsicht in den 1970er und 1980er Jahren. Er identifizierte drei zentrale Treiber von Transaktionskosten: Unsicherheit über künftige Entwicklungen, die Häufigkeit von Transaktionen und vor allem die Faktorspezifität – also die Frage, wie stark Investitionen an bestimmte Beziehungen gebunden sind. Je höher die Spezifität, desto anfälliger die Transaktion für opportunistisches Verhalten, desto höher die Absicherungskosten.
Was hat das mit KI-Agenten zu tun? Mehr, als die technikgetriebene Debatte wahrnimmt. Jede Schnittstelle zwischen Agenten ist eine Transaktion. Jede Übergabe von Kontext, jede Delegation von Teilaufgaben, jede Validierung von Zwischenergebnissen erzeugt Overhead. Die Agenten operieren unter Unsicherheit – sie wissen nicht vollständig, was die anderen tun. Ihre Kontextfenster sind begrenzt, Informationen gehen bei jeder Übergabe verloren. Und die Spezifität ist hoch: Ein Agent, der für eine bestimmte Teilaufgabe optimiert wurde, ist nicht ohne Weiteres in anderen Kontexten einsetzbar.
Die empirisch beobachtete “Rule of 4” – die Empfehlung, Multi-Agent-Systeme auf maximal vier Agenten zu begrenzen – ist nichts anderes als ein Transaktionskostenoptimum. Ab einer bestimmten Teamgröße übersteigen die Koordinationskosten die Spezialisierungsgewinne.
Begrenzte Rationalität und die Illusion der Schwarmintelligenz
Herbert Simon prägte in den 1950er Jahren den Begriff der “bounded rationality” – der begrenzten Rationalität. Menschen, so Simon, optimieren nicht, sie “satisfizieren”: Sie suchen nicht die beste Lösung, sondern eine, die gut genug ist, weil die kognitiven Kosten vollständiger Optimierung zu hoch wären.
LLM-basierte Agenten unterliegen einer analogen Beschränkung. Ihre Kontextfenster sind endlich, ihre Aufmerksamkeit fragmentiert, ihre Fähigkeit zur Selbstkorrektur begrenzt. Die Hoffnung, durch Vernetzung vieler begrenzter Intelligenzen eine unbegrenzte zu erzeugen, scheitert an einem einfachen Problem: Kommunikation ist verlustbehaftet. Jede Zusammenfassung, jede Übergabe, jede Abstraktion reduziert Information. In sequenziellen Workflows akkumulieren sich diese Verluste; in parallelen entstehen Konsistenzprobleme.
Die Studien bestätigen das: Bei Aufgaben, die nicht gut decomposierbar sind – also nicht sauber in unabhängige Teilprobleme zerlegt werden können –, performt ein einzelner, gut instrumentierter Agent oft besser als ein Team. Der Schwarm ist kein Ausweg aus der Komplexität, sondern verschiebt sie nur in die Orchestrierungsebene.
Gigerenzers Gegengift: Schnelle und sparsame Heuristiken
Wenn begrenzte Rationalität das Problem ist, was ist dann die Lösung? Die naheliegend…
