Im KI-gestützten „Vibe Work” sollen Generalisten zur entscheidenden Vertrauensinstanz zwischen KI-Output und Organisationsstandards werden. Die These klingt plausibel – übersieht aber, dass Qualitätsprüfung ohne institutionellen Rahmen zur Verantwortungsdiffusion wird. Ein Essay über die Grenzen einer populären Erzählung.
Cedric Savarese, CEO der Formular-Plattform FormAssembly, hat auf VentureBeat1You thought the generalist was dead — in the ‘vibe work’ era, they’re more important than ever eine These vorgelegt, die derzeit in der KI-Debatte auf breite Resonanz stößt: Der Generalist, lange als „Jack of all trades, master of none” belächelt, werde im Zeitalter des „Vibe Work” zur Schlüsselfigur. KI verschaffe ihm Zugang zu Spezialwissen; seine Aufgabe sei es, den Output kritisch zu prüfen und bei hohen Risiken an echte Experten zu eskalieren. Der Generalist werde so zur „Human Trust Layer” zwischen maschineller Ausgabe und organisatorischem Qualitätsanspruch.
Die Formulierung ist eingängig. Sie verdankt ihre Attraktivität dem Versprechen, dass breite Kompetenz in einer KI-durchdrungenen Arbeitswelt nicht entwertet, sondern aufgewertet wird. Und tatsächlich steckt darin ein richtiger Kern: Wer verschiedene Domänen überblickt, erkennt Inkonsistenzen, die einem reinen Fachspezialisten entgehen. KI-Modelle produzieren plausibel klingende, aber sachlich fragwürdige Antworten mit bemerkenswerter Selbstsicherheit – Savarese spricht treffend von der menschlichen Neigung, Konfidenz mit Kompetenz zu verwechseln. Ein vernetzt denkender Generalist kann hier als Korrektiv wirken, sofern er die richtigen Fragen stellt.
Breite ohne Tiefe ist kein Filter
Doch genau hier beginnt das Problem. Die These setzt voraus, was sie beweisen müsste: dass Generalisten über jene methodische Sorgfalt und Urteilsfähigkeit verfügen, die eine verlässliche Qualitätsprüfung erst ermöglichen. Savarese räumt ein, dass es einen Unterschied gibt zwischen informierter Breite und selbstsicherer Ahnungslosigkeit. Er bleibt jedoch an der Oberfläche dieser Unterscheidung. Was genau qualifiziert einen Generalisten zum Qualitätsfilter? Welche Schwelle muss er überschreiten, um KI-Halluzinationen nicht nur gelegentlich, sondern systematisch zu erkennen?
Die Antwort kann nicht allein im Individuum liegen. Entscheidungsdisziplin, Domänenverständnis, die Fähigkeit zur Risikoeinschätzung – das sind keine Persönlichkeitseigenschaften, die man mitbringt oder nicht. Es sind Kompetenzen, die institutionell gerahmt, geschult und überprüft werden müssen. Ohne diesen Rahmen wird aus dem Generalisten kein Orchestrator, sondern ein Akteur, der Verantwortung trägt, ohne über die Mittel zu ihrer Einlösung zu verfügen.
Die institutionelle Leerstelle
Hier liegt der eigentliche blinde Fleck der VentureBeat-These. Der Generalist als „Trust Layer” setzt voraus, dass die Organisation, in der er agiert, selbst über klare Qualitätsstandards verfügt. Wer definiert, wann ein KI-Output akzeptabel ist? Wer kalibriert die Eskalationsschwelle, ab der ein Spezialist hinzugezogen werden muss? Wer prüft den Prüfer?
In Organisationen mit ausgereiften Qualitätsmanagementsystemen – etwa in der Pharmaregulierung oder der Luftfahrtzertifizierung – lassen sich solche Fragen beantworten. In weiten Teilen der Wissensarbeit, zumal in mittelständischen Unternehmen, die KI-Werkzeuge einführen, ohne ihre Prozesse grundlegend anzupassen, fehlt dieser Referenzrahmen. Der Generalist wird dann nicht zum Qualitätsfilter, sondern zum Feigenblatt: Er prüft, ohne zu wissen, wogegen er prüft. Das ist keine Orchestrierung, sondern institutionalisierte Verantwortungsdiffusion.
Was das für regulierte Branchen bedeutet
Die Implikationen werden deutlich, wenn man die These auf konkrete Kontexte anwendet. Im Bankwesen etwa – einem Umfeld, in dem aufsichtsrechtliche Anforderungen, Dokumentationspflichten und Haftungsfragen den Arbeitsalltag bestimmen – funktioniert die „Trust Layer”-Metapher nur unter eng definierten Bedingungen. Ein KI-gestützter Kreditanalyst, der breit aufgestellt ist, aber keine regulatorische Tiefe hat, ist kein Qualitätsfilter. Er ist ein Risiko. Die BaFin wird sich nicht damit zufriedengeben, dass ein Generalist den Output eines Large Language Models „plausibel” fand.
Ähnliches gilt im Maschinenbau: Wenn KI-generierte Konstruktionsvorschläge von Generalisten abgenommen werden, die Materialermüdung nicht beurteilen können, verschiebt sich das Problem lediglich – von der fehlenden Kapazität des Spezialisten zur fehlenden Kompetenz des Prüfers.
Was bleibt
Die VentureBeat-These ist nicht falsch, aber unvollständig. KI erhöht tatsächlich den Wert von Generalisten – aber nur von jenen, die vernetzt denken, Risiken erkennen und Qualität methodisch prüfen können. „Ich kann alles ein bisschen” ist kein Qualifikationsprofil, sondern eine Selbstbeschreibung ohne operative Konsequenz.
Der entscheidende Punkt ist nicht, ob Generalisten künftig wichtiger werden. Sondern ob Organisationen die institutionellen Voraussetzungen schaffen, unter denen generalistische Kompetenz tatsächlich als Qualitätsinstanz wirken kann. Ohne Eskalationsregeln, ohne definierte Prüfstandards, ohne Rückkopplung mit Fachexpertise bleibt die „Human Trust Layer” eine Metapher – attraktiv in der Präsentation, aber substanzlos in der Praxis.
Für die Frage, wie KI-Agenten in Organisationen sinnvoll eingesetzt werden, folgt daraus: Nicht der Agent selbst ist das Problem, sondern die Abwesenheit institutioneller Strukturen, die seine Outputs einordnen, bewerten und korrigieren. Der Generalist kann in diesem Arrangement eine Rolle spielen – aber nur als Teil eines Systems, nicht als dessen Ersatz.
Ralf Keuper
