Wer heute produktiv mit KI arbeitet, jongliert meist zwischen mehreren Modellen. Eine neue Studie zeigt: Die Koordinationsarbeit, die dabei anfällt, ist strukturell identisch mit dem, was in Multi-Agent-Systemen ein Orchestrator leistet. Das ist kein Zufall – es ist ein Symptom.
Es gibt Studien, die man zunächst für banal hält und die sich bei näherer Lektüre als symptomatisch erweisen. „One Is Not Enough: How People Use Multiple AI Models in Everyday Life” gehört dazu. Die Autoren – ein Team aus dem Bereich Human-Computer Interaction – haben 10 technisch versierte Nutzer über vier Tage begleitet, ihre Tagebucheinträge ausgewertet und die Muster dokumentiert, nach denen Menschen ChatGPT, Claude, Gemini und andere multimodale Large Language Models im Alltag koordinieren.
Das Sample ist klein, die Stichprobe elitär: Doktoranden, Software-Fachkräfte, Early Adopter. Die Befunde beanspruchen keine Repräsentativität – und sollten es auch nicht. Was die Studie leistet, ist dichte Phänomenologie an einem Punkt, der für die Entwicklung agentischer Systeme grundlegend ist: der Schwelle, an der menschliche Koordinationsarbeit beginnt, maschinell übernehmbar zu werden.
Hierarchien ohne Organigramm
Die Teilnehmenden ordnen ihre Modelle nicht chaotisch, sondern in situativ stabilen Hierarchien. Ein Modell übernimmt die Primärrolle – es ist der Default, das vertraute Interface, das Arbeitspferd. Andere Modelle sind Sekundärquellen: für Gegenproben, für spezialisierte Teilaufgaben, für den zweiten Blick auf einen Entwurf.
Diese Hierarchien sind nicht fix. Sie variieren nach Kontext: Wer Claude für Schreibarbeiten und ChatGPT für Brainstorming nutzt, kann die Rollen in einem anderen Aufgabentyp vollständig umkehren. Was stabil bleibt, ist die Logik der Zuweisung – nicht das Modell selbst.
Drei Faktoren prägen, welche Modelle welche Rollen erhalten: Früh…
