Wer längere Zeit mit KI-Agenten arbeitet, macht eine Erfahrung, für die es noch keine exakt zutreffenden Begriffe gibt: Man beginnt als Führender und endet als Denkpartner. Das ist kein Zufall – und kein Marketingversprechen. Es ist die Beschreibung einer Praxis, die sich gerade still und leise herausbildet.
Es fängt immer ähnlich an. Man gibt eine Aufgabe. Man bekommt eine Antwort. Man korrigiert. Man präzisiert. Man führt – und das fühlt sich zunächst auch richtig an, weil man weiß, was man will, und der Agent es noch nicht weiß. Die Rolle ist klar: Dirigent. Man setzt den Rahmen, hält den Kurs, korrigiert Abweichungen.
Dann kippt etwas. Nicht dramatisch, nicht mit einem Paukenschlag. Eher unmerklich. Der Agent stellt eine Frage, die man sich selbst noch nicht gestellt hatte. Er zieht eine Verbindung, die man zwar hätte ziehen können – aber nicht gezogen hat. Man antwortet. Und merkt dabei, dass man gerade nicht mehr korrigiert, sondern nachdenkt. Die Rolle hat sich verschoben: vom Dirigenten zum Coach – jemand, der nicht mehr jeden Takt vorgibt, sondern Entwicklung begleitet und gelegentlich eingreift.
Und manchmal – nicht immer, aber oft genug, um es ernst zu nehmen – verschiebt sie sich noch einmal. Man sitzt nicht mehr am Dirigentenpult, man coacht nicht mehr. Man denkt gemeinsam. Was dabei entsteht, hätte keiner der beiden Beteiligten allein hervorgebracht.
Keine Ausnahme, sondern eine Erfahrung
Man könnte meinen, das sei eine Erfahrung, die nur unter besonderen Bedingungen gemacht wird – bei hochkomplexen Aufgaben, von besonders erfahrenen Nutzern, in spezifischen Domänen. Aber das stimmt nicht. Die Erfahrung ist weit verbreitet. Sie zeigt sich beim Schreiben eines Strategiepapiers genauso wie beim Durchdenken einer Personalentscheidung, beim Strukturieren einer Analyse genauso wie beim Formulieren einer schwierigen E‑Mail.
Don Knuth und sein Freund Filip Stappers haben sie kürzlich unter extremen Bedingungen dokumentiert: beim Versuch, ein offenes Problem der Kombinatorik zu lösen – die Zerlegung eines gerichteten Graphen mit m³ Knoten in drei Hamiltonkreise für alle ungeraden m. Was in Knuths Bericht “Claude’s Cycles“1Donald Knuth’s 30-Year Problem — Solved by an AI über diese Zusammenarbeit mit Claude Opus 4.6 auffällt, ist nicht nur das Ergebnis (eine funktionierende Konstruktion nach 31 Explorationen), sondern die Struktur des Prozesses: Stappers musste ständig eingreifen, Richtung halten, Prioritäten setzen – und gleichzeitig ließ er dem Agenten Raum, eigene Wege zu gehen, die er selbst nicht vorgezeichnet hatte. Das ist keine Mensch-Maschine-Schnittstelle im klassischen Sinne. Das ist Kollaboration.
Drei Rollen, die sich nicht ausschließen
Was sich in solchen Arbeitsprozessen beobachten lässt, ist ein dynamisches Rollenspiel mit (mindestens) drei Phasen:
Dirigent. Zu Beginn jeder Zusammenarbeit liegt die Struktur vollständig beim Menschen. Man definiert das Problem, setzt Rahmenbedingungen, gibt den Rhythmus vor. Der Agent führt aus. Diese Phase ist notwendig – sie ist nicht zu überspringen. Wer glaubt, einen KI-Agenten ohne klare Ausgangsorientierung produktiv einsetzen zu können, wird feststellen, dass er viel Zeit damit verbringt, Ergebnisse zu verwerfen.
Coach. Mit wachsender Interaktion verändert sich die Führungsform. Man gibt nicht mehr jeden Schritt vor, sondern beobachtet, kommentiert, lenkt bei Abweichungen nach. Die Qualität dieser Phase hängt stark von der Fähigkeit ab, dem Agenten präzises Feedback zu geben – nicht wertend, sondern orientierend. Was funktioniert? Was verfehlt das Ziel? Warum? Diese Fähigkeit ist erlernbar, aber sie ist nicht trivial.
Dialogpartner. Die dritte Phase ist die schwer zu beschreibende. Sie tritt nicht zuverlässig ein – manche Aufgaben bleiben in der Dirigenten- oder Coach-Phase. Aber wenn sie eintritt, ist sie unverkennbar: Man stellt fest, dass die eigenen Gedanken durch die Antworten des Agenten weitergeführt, geschärft, manchmal auch korrigiert werden. Das Gespräch hat eine eigene Dynamik entwickelt. Man denkt nicht mehr über den Agenten nach – man denkt mit ihm.
Was das nicht ist
An dieser Stelle ist Vorsicht geboten. Die Erfahrung von Augenhöhe im Dialog ist keine Aussage über die Natur des Agenten. Sie ist eine Aussage über die Qualität des Prozesses. Ein KI-Agent “versteht” nicht im menschlichen Sinne. Er erinnert sich nicht über Sitzungsgrenzen hinweg. Er hat keine eigenen Interessen, keine Kontinuität des Selbst, keine Verantwortung für das, was er produziert.
Das schmälert die Erfahrung nicht – aber es kontextualisiert sie. Was sich wie ein Gespräch auf Augenhöhe anfühlt, ist genauer gesagt: ein Prozess, in dem die eigene Denkfähigkeit durch ein System erweitert wird, das in bestimmten Dimensionen außerordentlich leistungsfähig ist. Die Augenhöhe ist funktional, nicht ontologisch. Das ist kein Einwand. Es ist eine Präzisierung.
Die Frage, die bleibt
Wenn diese Erfahrung so verbreitet ist und sich so strukturiert beschreiben lässt – warum wird dann so selten präzise darüber gesprochen? Warum dominieren stattdessen entweder Begeisterungsdiskurse (“KI löst alles”) oder Abwehrdiskurse (“KI ersetzt uns”)?
Vielleicht weil beides einfacher ist als die ehrliche Beschreibung einer Praxis, die weder triumphal noch bedrohlich ist, sondern schlicht: neu. Eine Praxis, die neue Kompetenzen erfordert – vor allem die Fähigkeit, situativ zu erkennen, welche Rolle gerade gefragt ist. Dirigent, Coach oder Dialogpartner: Die Entscheidung darüber liegt beim Menschen. Sie liegt nicht beim Agenten.
Das ist, nebenbei, auch eine Antwort auf die viel gestellte Frage, was Menschen in einer Welt mit leistungsfähigen KI-Agenten noch einbringen. Nicht nur Kreativität, nicht nur Ethik, nicht nur Empathie – sondern auch und gerade: Urteilsvermögen darüber, wann man führt, wann man begleitet und wann man loslässt, um gemeinsam etwas zu erreichen, das allein nicht möglich gewesen wäre.
Ralf Keuper
