Eine MIT-Studie kursiert seit Wochen durch die deutschsprachigen Medien: Wer beim Schreiben auf ChatGPT zurückgreift, zeigt reduzierte neuronale Eigenaktivität – und kann kurz nach der Abgabe kaum noch aus dem „eigenen” Text zitieren. Parallel dazu warnt die Forscherin Vivienne Ming vor einer wachsenden kognitiven Kluft: Eine kleine Minderheit nutze KI zur Vertiefung des eigenen Denkens, eine viel größere Mehrheit zur Substitution desselben.
Beide Befunde sind nicht falsch – aber sie greifen zu kurz, weil sie ein strukturelles Problem individualisieren. Die eigentliche Frage ist nicht: Wie nutzt der Einzelne KI? Sondern: Welche institutionellen Rahmenbedingungen entscheiden darüber, ob KI kognitive Entlastung oder kognitive Enteignung bedeutet?
Genau an dieser Stelle wird die Debatte für eine Theorie des institutionell situierten Agenten interessant – und drei Denker, die im Kernansatz dieser Publikation fest verankert sind, helfen, die Frage schärfer zu stellen: Daniel Kahneman, Gerd Gigerenzer und Dietrich Dörner.
Kahneman: Warum delegiert wird
Daniel Kahnemans Unterscheidung zwischen System 1 (schnell, automatisch, assoziativ) und System 2 (langsam, anstrengend, analytisch) liefert die kognitionspsychologische Mikroebene. Eine Metaanalyse von 170 Studien (Bijleveld, Radboud Universität, „The Unpleasantness of Thinking”) bestätigt: Geistige Anstrengung wird quer durch alle Berufsgruppen als unangenehm empfunden. Der Mensch ist eine strukturell System-1-affine Spezies – nicht aus Schwäche, sondern aus evolutionärer Ökonomie.
KI-Substitution ist in diesem Licht die institutionell verstärkte Präferenz für System 1: schnell, mühelos, kognitiv billig. Wo Organisationen Geschwindigkeit und Output belohnen, schaffen sie rational handelnde Akteure, die System-2-Leistungen an Maschinen delegieren. Das ist keine moralische Verfehlung – es ist eine adaptive Reaktion auf ein Anreizsystem.
Das Problem, das Kahneman selbst benennen würde, liegt tiefer: System 2 ist nicht nur Kontrollinstanz, sondern auch die Fähigkeit zur Selbstkorrektur. Wer es systematisch nicht mehr trainiert, verliert nicht nur Rechenleistung, sondern die Fähigkeit, zu erkennen, wann die schnelle Antwort falsch ist. KI-Output erzeugt dabei eine besondere kognitive Falle: Er ist glatt, formuliert und überzeugend – genau die Merkmale, die System 1 als Qualitätssignal wertet. Die kritische Distanz, die System 2 erzeugen würde, entfällt.
Gigerenzer: Wann es gefährlich wird
Gerd Gigerenzer würde Kahneman an einem entscheidenden Punkt korrigieren. Heuristiken sind nicht per se irrational – sie sind ökologisch angepasst oder unangepasst. „Fast and frugal” ist kein Makel, sondern eine Leistung, sofern die Umgebung zur Heuristik passt. Fehlanpassung entsteht nicht aus kognitiver Faulheit, sondern wenn Entscheidungsumgebung und Entscheidungswerkzeug auseinanderfallen.
Auf KI-Agenten übertragen ergibt sich daraus eine präzisere Diagnose als die Atrophie-These: Das Problem ist nicht primär, dass Nutzer zu wenig denken – es ist, dass KI-Agenten auf Trainingsverteilungen optimiert sind, die mit der konkreten Entscheidungsumgebung des Nutzers nur partiell übereinstimmen. Ein Sprachmodell liefert statistische Wahrscheinlichkeiten, keine ökologisch validierten Heuristiken. Es kennt den institutionellen Kontext nicht, in dem seine Ausgabe wirksam wird.
Gigerenzers Konzept der ökologischen Rationalität verschiebt damit die Frage: Nicht „Ist der Nutzer kognitionsfaul?” sondern „Passt der Agent zur Entscheidungsumgebung, in der er eingesetzt wird?” Ein institutionell situierter Agent, der seinen Kontext kennt – die Regeln, Routinen, Unsicherheiten und Ziele der Organisation – wäre ökologisch rational. Ein generischer Assistent, der kontextfrei antwortet, ist es nicht, unabhängig davon, wie präzise seine Ausgaben im statistischen Sinne sind.
Das ist zugleich ein konstruktives Argument: Gigerenzer zeigt, dass Kognitionsauslagerung nicht automatisch zu Atrophie führt. Entscheidend ist die Qualität der Passung. Eine Heuristik, die zur Umgebung passt, entlastet ohne zu entmündigen. Ein Agent, der kontextsensibel und transparent operiert, kann dasselbe leisten.
Dörner: Was in komplexen Systemen dann passiert
Dietrich Dörner hat in der Logik des Misslingens gezeigt, dass Scheitern in komplexen Systemen nicht aus Dummheit entsteht, sondern aus einem charakteristischen Muster: Akteure handeln ohne ausreichendes mentales Modell der Systemdynamik. Sie reagieren auf sichtbare Symptome, statt unsichtbare Ursachen zu adressieren. Sie optimieren Teilprobleme, ohne Wechselwirkungen zu bedenken. Sie erzeugen durch gut gemeinte Eingriffe neue, unvorhergesehene Probleme.
Komplexe Systeme sind bei Dörner nicht-transparent, dynamisch und polyzentral – sie verbergen ihren Zustand, verändern sich auch ohne externe Eingriffe und reagieren auf Interventionen in mehrere Richtungen gleichzeitig.
KI-Substitution ist in diesem Rahmen der institutionalisierte operative Aktionismus: glatte, schnelle Ausgaben ohne das Lageplan-Verständnis, das Dörner für navigierbare Komplexität fordert. Wer ein komplexes institutionelles Problem an einen Agenten delegiert, der keine Systemdynamik modelliert, erhält Antworten, die lokal plausibel und global schädlich sein können. Die Atrophie liegt dann nicht nur im individuellen Denken, sondern im kollektiven mentalen Modell der Organisation: Man versteht das System, in dem man agiert, immer weniger.
Dörner liefert damit die Organisationsebene, die Kahneman und Gigerenzer nicht abdecken: Kognitive Delegation ist nicht nur ein Problem des Einzelnen und nicht nur eine Frage der Passung zwischen Agent und Umgebung – es ist ein Risiko für die Steuerungsfähigkeit von Institutionen in dynamischen, nicht-transparenten Systemen.
Die dreistufige Agenten-Typologie im Licht der drei Theorien
Aus dem Zusammenspiel der drei Perspektiven ergibt sich eine geschärfte Version der Agenten-Taxonomie, die für ki-agenten.eu entwickelt wird:
Der substitutive Agent (regelausführend) bedient die System-1-Präferenz und ist ökologisch nur dann vertretbar, wenn die Entscheidungsumgebung stabil, transparent und gut verstanden ist – also genau dort, wo Dörners Komplexitätsprobleme nicht greifen. In dynamischen, nicht-transparenten Systemen ist er ein Atrophietreiber: Er entzieht der Organisation die Trainingsgrundlage für System 2 und untergräbt das kollektive mentale Modell.
Der komplementäre Agent (regelintelligent) ist das, was Gigerenzer meint, wenn er von ökologisch rationalen Heuristiken spricht: Er passt sich an den Kontext an, macht Unsicherheiten sichtbar, stellt Rückfragen, bietet Alternativen. Er trainiert System 2, statt es zu ersetzen. Die MIT-Studie deutet in diese Richtung: Personen mit klarer kognitiver Eigenstruktur profitierten von KI-Unterstützung – ihre neuronale Aktivität stieg. Der komplementäre Agent setzt voraus, dass die Nutzer ein ausreichendes mentales Modell mitbringen – er kann es nicht erzeugen, aber er kann es schärfen.
Der transformative Agent (regelentwerfend) greift in institutionelle Regeln selbst ein. Hier stellt sich Dörners Frage mit besonderer Schärfe: Wer modelliert die Systemdynamik, in die der Agent eingreift? Wer trägt Verantwortung für unvorhergesehene Wechselwirkungen? Kognitive Delegation auf dieser Ebene ist nicht mehr ein Effizienzproblem – es ist eine Legitimitätsfrage.
Luhmann im Hintergrund: Entscheidung, Kognition, Verantwortung
Luhmanns Entscheidungsbegriff ergänzt das Bild auf der systemtheoretischen Ebene. Entscheidungen sind bei Luhmann nicht Auswahl nach rationaler Abwägung, sondern operative Schließung von Kontingenz unter Ungewissheit: Man legt fest, obwohl man es auch anders hätte entscheiden können. Diese Kontingenzmarkierung ist konstitutiv – sie erzeugt Zurechnbarkeit und Verantwortung.
Wird diese Entscheidungsleistung an einen Agenten delegiert, verschwindet die Kontingenzmarkierung: Der Output erscheint als sachliche Notwendigkeit, nicht als eine von mehreren möglichen Festlegungen. Kahneman würde sagen, System 1 akzeptiert das bereitwillig. Gigerenzer würde fragen, ob die Heuristik des Agenten zur Entscheidungsumgebung passt. Dörner würde warnen, dass in komplexen Systemen genau diese Kontingenzblindheit zu Steuerungsversagen führt.
Zusammengeführt: Ein institutionell situierter Agent, der seinen Einsatz legitimieren kann, muss Kontingenz sichtbar machen, nicht verbergen. Er darf nicht den Eindruck erzeugen, seine Ausgabe sei die einzig mögliche – er muss die Entscheidung als Entscheidung kenntlich halten.
Fazit: Kognitive Souveränität als institutionelles Design-Problem
Die populäre Atrophie-Debatte stellt die falsche Frage. Nicht der individuelle Nutzer muss entscheiden, ob er „wirklich” denkt oder KI delegiert – das ist eine Frage, die unter Effizienzdruck immer zu Gunsten der Delegation beantwortet wird, weil Kahneman recht hat.
Die relevante Einheit ist die Institution. Sie entscheidet – durch Anreizstrukturen, Agentendesign und Einbettungsregeln –, welche Kognitionsleistungen sie externalisieren will und welche sie als konstitutiv für ihre eigene Entscheidungsfähigkeit begreift. Gigerenzer liefert das Kriterium: ökologische Passung. Dörner liefert das Risikobild: Steuerungsverlust in komplexen Systemen. Luhmann liefert das Legitimationsprinzip: Kontingenz sichtbar halten.
Kognitive Souveränität ist kein Tugendprojekt. Es ist eine Frage des institutionellen Designs – und damit eine Kernfrage für jeden, der über den institutionell situierten Agenten nachdenkt.
Ralf Keuper
Quellen:
Empirische Studien
Kosmyna, N. et al. (2025): Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task MIT Media Lab / arXiv preprint (nicht peer-reviewed)
- Projektseite: https://www.media.mit.edu/projects/your-brain-on-chatgpt/overview/
- arXiv: https://arxiv.org/abs/2506.08872
- Zusammenfassung (The Conversation): https://theconversation.com/mit-researchers-say-using-chatgpt-can-rot-your-brain-the-truth-is-a-little-more-complicated-259450
David, L. / Vassena, E. / Bijleveld, E. (2024): The Unpleasantness of Thinking: A Meta-Analytic Review of the Association Between Mental Effort and Negative Affect Psychological Bulletin, 150(9), 1070–1093
- DOI: https://doi.org/10.1037/bul0000443
- PubMed: https://pubmed.ncbi.nlm.nih.gov/39101924/
- PDF (APA): https://www.apa.org/pubs/journals/releases/bul-bul0000443.pdf
- Pressemitteilung (EurekAlert): https://www.eurekalert.org/news-releases/1053318
Gerlich, M. (2025): AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical ThinkingSocieties, 15(1), 6. SBS Swiss Business School, Zürich
- DOI: https://doi.org/10.3390/soc15010006
- Kommentar (dataloft.ch): https://dataloft.ch/ki/wenn-kritisches-denken-ausgelagert-wird-ki/
Ausgangsmaterial (Anlass der Analyse)
Ming, Vivienne (2026): Interview, Business Insider / MSN „KI spaltet unser Denken: Warum nur eine kleine Elite klüger wird – und ihr vermutlich geistig abbaut”
- Business Insider DE: https://www.businessinsider.de/wissenschaft/ki-spaltet-unser-denken-warum-nur-eine-kleine-elite-klueger-wird/
- Yahoo Finance (Volltext): https://de.finance.yahoo.com/nachrichten/ki-spaltet-denken-nur-kleine-100724653.html
Wohlleben, Kolja (2025): Der Preis der Effizienz: Macht KI uns dumm und faul? masterplan.com
Theoretische Grundlagentexte (Bücher)
Kahneman, Daniel (2011): Thinking, Fast and Slow Farrar, Straus and Giroux, New York
Gigerenzer, Gerd (2007): Gut Feelings: The Intelligence of the Unconscious Viking, New York (Zur ökologischen Rationalität vgl. auch: Gigerenzer, G. / Todd, P. M. (1999): Simple Heuristics That Make Us Smart. Oxford University Press)
Dörner, Dietrich (1989): Die Logik des Misslingens. Strategisches Denken in komplexen Situationen Rowohlt, Reinbek bei Hamburg
Luhmann, Niklas (2000): Organisation und Entscheidung Westdeutscher Verlag, Opladen/Wiesbaden
Weiterführende Sekundärliteratur
Business Insider DE: KI schwächt das Denken – Experten warnen vor Verlust kognitiver Fähigkeiten (Josephine Hofmann, Fraunhofer IAO) https://www.businessinsider.de/wirtschaft/ki-schwaecht-das-denken-experten-warnen-vor-verlust-kognitiver-faehigkeiten/
Der Freitag / The Guardian: Macht Künstliche Intelligenz dumm? https://www.freitag.de/autoren/the-guardian/macht-kuenstliche-intelligenz-dumm-und-wie-schuetzen-wir-uns-vor-brainrot-co
Polytechnique Insights: Generative AI – The Risk of Cognitive Atrophy https://www.polytechnique-insights.com/en/columns/neuroscience/generative-ai-the-risk-of-cognitive-atrophy/
BSI AG: KI und Sinnverlust – Wenn Effizienz innere Leere schafft (Rosa, Virilio, Byung-Chul Han)https://www.bsi.ag/cases/149-case-studie-beschleunigt-ki-die-arbeit—oder-nur-die-langeweile.html
