Eine MIT-Studie kur­siert seit Wochen durch die deutschsprachi­gen Medi­en: Wer beim Schreiben auf Chat­G­PT zurück­greift, zeigt reduzierte neu­ronale Eige­nak­tiv­ität – und kann kurz nach der Abgabe kaum noch aus dem „eige­nen” Text zitieren. Par­al­lel dazu warnt die Forscherin Vivi­enne Ming vor ein­er wach­senden kog­ni­tiv­en Kluft: Eine kleine Min­der­heit nutze KI zur Ver­tiefung des eige­nen Denkens, eine viel größere Mehrheit zur Sub­sti­tu­tion des­sel­ben.

Bei­de Befunde sind nicht falsch – aber sie greifen zu kurz, weil sie ein struk­turelles Prob­lem indi­vid­u­al­isieren. Die eigentliche Frage ist nicht: Wie nutzt der Einzelne KI? Son­dern: Welche insti­tu­tionellen Rah­menbe­din­gun­gen entschei­den darüber, ob KI kog­ni­tive Ent­las­tung oder kog­ni­tive Enteig­nung bedeutet?

Genau an dieser Stelle wird die Debat­te für eine The­o­rie des insti­tu­tionell situ­ierten Agen­ten inter­es­sant – und drei Denker, die im Ker­nansatz dieser Pub­lika­tion fest ver­ankert sind, helfen, die Frage schär­fer zu stellen: Daniel Kah­ne­man, Gerd Gigeren­z­er und Diet­rich Dörn­er.


Kahneman: Warum delegiert wird

Daniel Kah­ne­mans Unter­schei­dung zwis­chen Sys­tem 1 (schnell, automa­tisch, assozia­tiv) und Sys­tem 2 (langsam, anstren­gend, ana­lytisch) liefert die kog­ni­tion­spsy­chol­o­gis­che Mikroebene. Eine Meta­analyse von 170 Stu­di­en (Bijleveld, Rad­boud Uni­ver­sität, „The Unpleas­ant­ness of Think­ing”) bestätigt: Geistige Anstren­gung wird quer durch alle Beruf­s­grup­pen als unan­genehm emp­fun­den. Der Men­sch ist eine struk­turell Sys­tem-1-affine Spezies – nicht aus Schwäche, son­dern aus evo­lu­tionär­er Ökonomie.

KI-Sub­sti­tu­tion ist in diesem Licht die insti­tu­tionell ver­stärk­te Präferenz für Sys­tem 1: schnell, müh­e­los, kog­ni­tiv bil­lig. Wo Organ­i­sa­tio­nen Geschwindigkeit und Out­put belohnen, schaf­fen sie ratio­nal han­del­nde Akteure, die Sys­tem-2-Leis­tun­gen an Maschi­nen delegieren. Das ist keine moralis­che Ver­fehlung – es ist eine adap­tive Reak­tion auf ein Anreizsys­tem.

Das Prob­lem, das Kah­ne­man selb­st benen­nen würde, liegt tiefer: Sys­tem 2 ist nicht nur Kon­trol­linstanz, son­dern auch die Fähigkeit zur Selb­stko­r­rek­tur. Wer es sys­tem­a­tisch nicht mehr trainiert, ver­liert nicht nur Rechen­leis­tung, son­dern die Fähigkeit, zu erken­nen, wann die schnelle Antwort falsch ist. KI-Out­put erzeugt dabei eine beson­dere kog­ni­tive Falle: Er ist glatt, for­muliert und überzeu­gend – genau die Merk­male, die Sys­tem 1 als Qual­itätssig­nal wertet. Die kri­tis­che Dis­tanz, die Sys­tem 2 erzeu­gen würde, ent­fällt.


Gigerenzer: Wann es gefährlich wird

Gerd Gigeren­z­er würde Kah­ne­man an einem entschei­den­den Punkt kor­rigieren. Heuris­tiken sind nicht per se irra­tional – sie sind ökol­o­gisch angepasst oder unangepasst. „Fast and fru­gal” ist kein Makel, son­dern eine Leis­tung, sofern die Umge­bung zur Heuris­tik passt. Fehlanpas­sung entste­ht nicht aus kog­ni­tiv­er Faul­heit, son­dern wenn Entschei­dung­sumge­bung und Entschei­dungswerkzeug auseinan­der­fall­en.

Auf KI-Agen­ten über­tra­gen ergibt sich daraus eine präzis­ere Diag­nose als die Atro­phie-These: Das Prob­lem ist nicht primär, dass Nutzer zu wenig denken – es ist, dass KI-Agen­ten auf Train­ingsverteilun­gen opti­miert sind, die mit der konkreten Entschei­dung­sumge­bung des Nutzers nur par­tiell übere­in­stim­men. Ein Sprach­mod­ell liefert sta­tis­tis­che Wahrschein­lichkeit­en, keine ökol­o­gisch vali­dierten Heuris­tiken. Es ken­nt den insti­tu­tionellen Kon­text nicht, in dem seine Aus­gabe wirk­sam wird.

Gigeren­z­ers Konzept der ökol­o­gis­chen Ratio­nal­ität ver­schiebt damit die Frage: Nicht „Ist der Nutzer kog­ni­tions­faul?” son­dern „Passt der Agent zur Entschei­dung­sumge­bung, in der er einge­set­zt wird?” Ein insti­tu­tionell situ­iert­er Agent, der seinen Kon­text ken­nt – die Regeln, Rou­ti­nen, Unsicher­heit­en und Ziele der Organ­i­sa­tion – wäre ökol­o­gisch ratio­nal. Ein gener­isch­er Assis­tent, der kon­textfrei antwortet, ist es nicht, unab­hängig davon, wie präzise seine Aus­gaben im sta­tis­tis­chen Sinne sind.

Das ist zugle­ich ein kon­struk­tives Argu­ment: Gigeren­z­er zeigt, dass Kog­ni­tion­saus­lagerung nicht automa­tisch zu Atro­phie führt. Entschei­dend ist die Qual­ität der Pas­sung. Eine Heuris­tik, die zur Umge­bung passt, ent­lastet ohne zu ent­mündi­gen. Ein Agent, der kon­textsen­si­bel und trans­par­ent operiert, kann das­selbe leis­ten.


Dörner: Was in komplexen Systemen dann passiert

Diet­rich Dörn­er hat in der Logik des Misslin­gens gezeigt, dass Scheit­ern in kom­plex­en Sys­te­men nicht aus Dummheit entste­ht, son­dern aus einem charak­ter­is­tis­chen Muster: Akteure han­deln ohne aus­re­ichen­des men­tales Mod­ell der Sys­tem­dy­namik. Sie reagieren auf sicht­bare Symp­tome, statt unsicht­bare Ursachen zu adressieren. Sie opti­mieren Teil­prob­leme, ohne Wech­sel­wirkun­gen zu bedenken. Sie erzeu­gen durch gut gemeinte Ein­griffe neue, unvorherge­se­hene Prob­leme.

Kom­plexe Sys­teme sind bei Dörn­er nicht-trans­par­ent, dynamisch und polyzen­tral – sie ver­ber­gen ihren Zus­tand, verän­dern sich auch ohne externe Ein­griffe und reagieren auf Inter­ven­tio­nen in mehrere Rich­tun­gen gle­ichzeit­ig.

KI-Sub­sti­tu­tion ist in diesem Rah­men der insti­tu­tion­al­isierte oper­a­tive Aktion­is­mus: glat­te, schnelle Aus­gaben ohne das Lage­plan-Ver­ständ­nis, das Dörn­er für navigier­bare Kom­plex­ität fordert. Wer ein kom­plex­es insti­tu­tionelles Prob­lem an einen Agen­ten delegiert, der keine Sys­tem­dy­namik mod­el­liert, erhält Antworten, die lokal plau­si­bel und glob­al schädlich sein kön­nen. Die Atro­phie liegt dann nicht nur im indi­vidu­ellen Denken, son­dern im kollek­tiv­en men­tal­en Mod­ell der Organ­i­sa­tion: Man ver­ste­ht das Sys­tem, in dem man agiert, immer weniger.

Dörn­er liefert damit die Organ­i­sa­tion­sebene, die Kah­ne­man und Gigeren­z­er nicht abdeck­en: Kog­ni­tive Del­e­ga­tion ist nicht nur ein Prob­lem des Einzel­nen und nicht nur eine Frage der Pas­sung zwis­chen Agent und Umge­bung – es ist ein Risiko für die Steuerungs­fähigkeit von Insti­tu­tio­nen in dynamis­chen, nicht-trans­par­enten Sys­te­men.


Die dreistufige Agenten-Typologie im Licht der drei Theorien

Aus dem Zusam­men­spiel der drei Per­spek­tiv­en ergibt sich eine geschärfte Ver­sion der Agen­ten-Tax­onomie, die für ki-agenten.eu entwick­elt wird:

Der sub­sti­tu­tive Agent (rege­laus­führend) bedi­ent die Sys­tem-1-Präferenz und ist ökol­o­gisch nur dann vertret­bar, wenn die Entschei­dung­sumge­bung sta­bil, trans­par­ent und gut ver­standen ist – also genau dort, wo Dörn­ers Kom­plex­ität­sprob­leme nicht greifen. In dynamis­chen, nicht-trans­par­enten Sys­te­men ist er ein Atro­phi­etreiber: Er entzieht der Organ­i­sa­tion die Train­ings­grund­lage für Sys­tem 2 und unter­gräbt das kollek­tive men­tale Mod­ell.

Der kom­ple­men­täre Agent (regelin­tel­li­gent) ist das, was Gigeren­z­er meint, wenn er von ökol­o­gisch ratio­nalen Heuris­tiken spricht: Er passt sich an den Kon­text an, macht Unsicher­heit­en sicht­bar, stellt Rück­fra­gen, bietet Alter­na­tiv­en. Er trainiert Sys­tem 2, statt es zu erset­zen. Die MIT-Studie deutet in diese Rich­tung: Per­so­n­en mit klar­er kog­ni­tiv­er Eigen­struk­tur prof­i­tierten von KI-Unter­stützung – ihre neu­ronale Aktiv­ität stieg. Der kom­ple­men­täre Agent set­zt voraus, dass die Nutzer ein aus­re­ichen­des men­tales Mod­ell mit­brin­gen – er kann es nicht erzeu­gen, aber er kann es schär­fen.

Der trans­for­ma­tive Agent (rege­len­twer­fend) greift in insti­tu­tionelle Regeln selb­st ein. Hier stellt sich Dörn­ers Frage mit beson­der­er Schärfe: Wer mod­el­liert die Sys­tem­dy­namik, in die der Agent ein­greift? Wer trägt Ver­ant­wor­tung für unvorherge­se­hene Wech­sel­wirkun­gen? Kog­ni­tive Del­e­ga­tion auf dieser Ebene ist nicht mehr ein Effizien­zprob­lem – es ist eine Legit­im­itäts­frage.


Luhmann im Hintergrund: Entscheidung, Kognition, Verantwortung

Luh­manns Entschei­dungs­be­griff ergänzt das Bild auf der sys­temthe­o­retis­chen Ebene. Entschei­dun­gen sind bei Luh­mann nicht Auswahl nach ratio­naler Abwä­gung, son­dern oper­a­tive Schließung von Kontin­genz unter Ungewis­sheit: Man legt fest, obwohl man es auch anders hätte entschei­den kön­nen. Diese Kontin­genz­markierung ist kon­sti­tu­tiv – sie erzeugt Zurechn­barkeit und Ver­ant­wor­tung.

Wird diese Entschei­dungsleis­tung an einen Agen­ten delegiert, ver­schwindet die Kontin­genz­markierung: Der Out­put erscheint als sach­liche Notwendigkeit, nicht als eine von mehreren möglichen Fes­tle­gun­gen. Kah­ne­man würde sagen, Sys­tem 1 akzep­tiert das bere­itwillig. Gigeren­z­er würde fra­gen, ob die Heuris­tik des Agen­ten zur Entschei­dung­sumge­bung passt. Dörn­er würde war­nen, dass in kom­plex­en Sys­te­men genau diese Kontin­genzblind­heit zu Steuerungsver­sagen führt.

Zusam­menge­führt: Ein insti­tu­tionell situ­iert­er Agent, der seinen Ein­satz legit­imieren kann, muss Kontin­genz sicht­bar machen, nicht ver­ber­gen. Er darf nicht den Ein­druck erzeu­gen, seine Aus­gabe sei die einzig mögliche – er muss die Entschei­dung als Entschei­dung ken­ntlich hal­ten.


Fazit: Kognitive Souveränität als institutionelles Design-Problem

Die pop­uläre Atro­phie-Debat­te stellt die falsche Frage. Nicht der indi­vidu­elle Nutzer muss entschei­den, ob er „wirk­lich” denkt oder KI delegiert – das ist eine Frage, die unter Effizien­z­druck immer zu Gun­sten der Del­e­ga­tion beant­wortet wird, weil Kah­ne­man recht hat.

Die rel­e­vante Ein­heit ist die Insti­tu­tion. Sie entschei­det – durch Anreizstruk­turen, Agen­ten­de­sign und Ein­bet­tungsregeln –, welche Kog­ni­tion­sleis­tun­gen sie exter­nal­isieren will und welche sie als kon­sti­tu­tiv für ihre eigene Entschei­dungs­fähigkeit begreift. Gigeren­z­er liefert das Kri­teri­um: ökol­o­gis­che Pas­sung. Dörn­er liefert das Risiko­bild: Steuerungsver­lust in kom­plex­en Sys­te­men. Luh­mann liefert das Legit­i­ma­tion­sprinzip: Kontin­genz sicht­bar hal­ten.

Kog­ni­tive Sou­veränität ist kein Tugend­pro­jekt. Es ist eine Frage des insti­tu­tionellen Designs – und damit eine Kern­frage für jeden, der über den insti­tu­tionell situ­ierten Agen­ten nach­denkt.

Ralf Keu­per 


Quellen:

Empirische Studien

Kos­my­na, N. et al. (2025): Your Brain on Chat­G­PT: Accu­mu­la­tion of Cog­ni­tive Debt when Using an AI Assis­tant for Essay Writ­ing Task MIT Media Lab / arX­iv preprint (nicht peer-reviewed)


David, L. / Vasse­na, E. / Bijleveld, E. (2024): The Unpleas­ant­ness of Think­ing: A Meta-Ana­lyt­ic Review of the Asso­ci­a­tion Between Men­tal Effort and Neg­a­tive Affect Psy­cho­log­i­cal Bul­letin, 150(9), 1070–1093


Ger­lich, M. (2025): AI Tools in Soci­ety: Impacts on Cog­ni­tive Offload­ing and the Future of Crit­i­cal Think­ingSoci­eties, 15(1), 6. SBS Swiss Busi­ness School, Zürich


Ausgangsmaterial (Anlass der Analyse)

Ming, Vivi­enne (2026): Inter­view, Busi­ness Insid­er / MSN „KI spal­tet unser Denken: Warum nur eine kleine Elite klüger wird – und ihr ver­mut­lich geistig abbaut”

Wohlleben, Kol­ja (2025): Der Preis der Effizienz: Macht KI uns dumm und faul? masterplan.com


Theoretische Grundlagentexte (Bücher)

Kah­ne­man, Daniel (2011): Think­ing, Fast and Slow Far­rar, Straus and Giroux, New York

Gigeren­z­er, Gerd (2007): Gut Feel­ings: The Intel­li­gence of the Uncon­scious Viking, New York (Zur ökol­o­gis­chen Ratio­nal­ität vgl. auch: Gigeren­z­er, G. / Todd, P. M. (1999): Sim­ple Heuris­tics That Make Us Smart. Oxford Uni­ver­si­ty Press)

Dörn­er, Diet­rich (1989): Die Logik des Misslin­gens. Strate­gis­ches Denken in kom­plex­en Sit­u­a­tio­nen Rowohlt, Rein­bek bei Ham­burg

Luh­mann, Niklas (2000): Organ­i­sa­tion und Entschei­dung West­deutsch­er Ver­lag, Opladen/Wiesbaden


Weiterführende Sekundärliteratur

Busi­ness Insid­er DE: KI schwächt das Denken – Experten war­nen vor Ver­lust kog­ni­tiv­er Fähigkeit­en (Josephine Hof­mann, Fraun­hofer IAO) https://www.businessinsider.de/wirtschaft/ki-schwaecht-das-denken-experten-warnen-vor-verlust-kognitiver-faehigkeiten/

Der Fre­itag / The Guardian: Macht Kün­stliche Intel­li­genz dumm? https://www.freitag.de/autoren/the-guardian/macht-kuenstliche-intelligenz-dumm-und-wie-schuetzen-wir-uns-vor-brainrot-co

Poly­tech­nique Insights: Gen­er­a­tive AI – The Risk of Cog­ni­tive Atro­phy https://www.polytechnique-insights.com/en/columns/neuroscience/generative-ai-the-risk-of-cognitive-atrophy/

BSI AG: KI und Sin­nver­lust – Wenn Effizienz innere Leere schafft (Rosa, Vir­ilio, Byung-Chul Han)https://www.bsi.ag/cases/149-case-studie-beschleunigt-ki-die-arbeit—oder-nur-die-langeweile.html

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert