Eine Studie mit 61 Studenten wird im Netz zur Warnung vor „permanentem Gehirnschaden” durch KI. Das kennen wir – die Theologen haben gegen den Buchdruck dasselbe Argument geführt. Was dahinter steckt, was die Forschung tatsächlich zeigt, und warum die interessantere Frage nicht lautet: Schadet KI der Kreativität? Sondern: Wohin verschiebt sie sie?
Das Format ist bekannt: präzise Zahlen, dramatischer Befund, finaler Aphorismus. „3.302 kreative Ideen. 61 Personen. 30 Tage.” Dann die Schlusspointe: „You’re not renting a productivity boost. You’re financing it with your originality. The interest rate is permanent.“1https://x.com/heygurisingh/status/2031407961726496815 Was wie ein Warnschuss aus dem Labor klingt, ist in Wirklichkeit ein gut optimierter LinkedIn-Post – viral-tauglich aufbereitete Forschungsrhetorik, die legitime Befunde in Katastrophenprosa übersetzt.
Das ist kein Randphänomen. Es ist das dominierende Kommunikationsformat für wissenschaftliche Befunde im digitalen Raum geworden. Und gerade deshalb lohnt es sich, genauer hinzusehen.
Was die Studie tatsächlich zeigt
Die Kernergebnisse, so wie beschrieben, sind plausibel und nicht uninteressant: Eine Gruppe, die ChatGPT für kreative Aufgaben nutzte, erzielte zunächst bessere Ergebnisse – und fiel nach Entzug des Werkzeugs auf das Ausgangsniveau zurück. Zudem näherten sich die Outputs der ChatGPT-Gruppe über Zeit einander an: gleiche Strukturen, ähnliche Inhalte, vergleichbare Formulierungen.
Das sind beobachtbare Effekte, die eine sorgfältige Interpretation verdienen. Aber „permanent damage” ist das nicht – jedenfalls nicht auf Basis dieser Daten.
Erstens: 30 Tage sind kein Maßstab für Permanenz. Das ist ein Follow-up-Zeitraum, keine Längsschnittstudie. Die Behauptung, dass ein Effekt nach einem Monat noch messbar ist, sagt nichts darüber aus, ob er nach sechs Monaten oder nach einem Jahr noch vorliegt. Hier wird ein temporaler Befund zur ontologischen Diagnose aufgeblasen.
Zweitens: 61 Personen, rekrutiert aus einem studentischen Umfeld, erlauben keine Aussagen über „kreative Fähigkeiten” im Allgemeinen. Das ist eine Stichprobe, keine Population. Generalisierungen in dieser Größenordnung – „your creative ability may already be permanently damaged” – sind wissenschaftlich schlicht nicht gedeckt.
Drittens, und das ist der methodisch wichtigste Punkt: Was hier als „Schaden” beschrieben wird, ist in der Kognitionswissenschaft unter einem anderen Begriff bekannt – Disuse. Wenn eine Funktion nicht mehr ausgeübt wird, schwächt sie sich ab. Das gilt für Kopfrechnen nach Jahren mit dem Taschenrechner ebenso wie für Orientierungsvermögen nach jahrelanger GPS-Nutzung. Das ist kein neurologischer Schaden, sondern ein Anpassungseffekt. Reversibel, sofern man die Funktion wieder trainiert.
Der interessante Befund: Homogenisierung
Was in der Dramatisierung untergeht, ist der eigentlich aufschlussreiche Befund: die zunehmende Ähnlichkeit der Outputs innerhalb der ChatGPT-Gruppe. Die Ideen glichen sich an – in Struktur, Inhalt, Formulierung.
Das ist kein individuelles Problem, sondern ein ökologisches. Wenn viele Personen dasselbe Werkzeug mit denselben trainierten Mustern nutzen, produzieren sie ähnlichere Ergebnisse. Das ist keine Überraschung – es ist die logische Konsequenz eines gemeinsamen Filters. Die Vielfalt der Inputs wird durch einen homogenisierenden Prozessor geleitet und verlässt ihn in engeren Bahnen.
Dieser Effekt ist real und relevant. Er betrifft aber nicht primär das Individuum, sondern die Systemebene: Was passiert mit der kulturellen und kognitiven Vielfalt einer Gesellschaft, wenn ein erheblicher Teil ihrer kreativen Produktion durch wenige große Sprachmodelle läuft? Das ist eine legitime Frage – und eine ernstere als die individuelle Schadensvermutung.
Kahneman in der Werkzeugkiste
Der zweite im Post zitierte Befund – ChatGPT-Nutzer schnitten im Überraschungstest schlechter ab als Lernende ohne KI – passt in eine etablierte kognitionswissenschaftliche Logik. Daniel Kahneman, Gerd Gigerenzer und Dietrich Dörner haben unterschiedliche Facetten desselben Grundmusters beschrieben: Kognitive Leistungen, die nicht ausgeübt werden, enkodieren schwächer. Wer die Antwort nicht selbst erarbeitet, speichert weniger.
Das ist keine Enthüllung, sondern Lernpsychologie seit den 1970ern. Das spacing effect, das Prinzip der desirable difficulties, die Forschung zu retrieval practice – all das zeigt: Anstrengung beim Lernen ist keine Ineffizienz, sondern der Mechanismus der Enkodierung selbst. Ein Werkzeug, das den Aufwand abnimmt, nimmt damit auch den Lerneffekt ab.
Die relevante Frage ist deshalb nicht: „Schadet KI der Kreativität?” Sondern: Unter welchen Nutzungsbedingungen entstehen kognitive Auslagerungseffekte – und unter welchen nicht? Wer KI als Recherche- und Gegenprüfungs-Werkzeug nutzt, ist in einer anderen Situation als jemand, der sie als Erstgenerator einsetzt und das Ergebnis unverändert übernimmt. Diese Differenzierung fehlt in dem Post vollständig.
Der Buchdruck und seine Feinde
Das alles ist nicht neu. Als Gutenberg den Buchdruck einführte, erhoben sich ähnliche Einwände – und sie kamen nicht nur aus Dummheit oder Machtgier, sondern hatten eine genuine epistemologische Dimension.
Im monastischen Kontext galt das Abschreiben nicht als bloße Reproduktion, sondern als Erkenntnisakt. Die lectio divina war untrennbar vom körperlichen Vollzug: Die Hand führt den Griffel, der Geist folgt dem Text, der Text prägt sich ein. Wer nur liest – und noch schlimmer: wer gedruckt liest, schnell, oberflächlich, ohne den Widerstand des Abschreibens – verliert den Zugang zur tieferen Bedeutung. Das klingt nach Relikt, hat aber eine kognitive Entsprechung: genau jene desirable difficulties, die Kahneman Jahrhunderte später beschreiben würde.
Gleichzeitig war die Kritik Machtschutz. Die Deutungshoheit über Texte lag bei denen, die sie abschreiben, übersetzen und kommentieren konnten. Der Buchdruck demokratisierte nicht nur den Zugang – er entwertete eine Kompetenz, die soziale Stellung begründete.
Das ist der Punkt, der die heutige Debatte besonders interessant macht: Die Kritik am KI-Werkzeug trifft strukturell immer auch jemanden, der ein Interesse an der Knappheit der alten Kompetenz hat. Der Journalist, der warnt, dass ChatGPT das Schreiben beschädigt. Der Hochschullehrer, der befürchtet, dass KI das Denken ersetzt. Der Kreativberater, dessen Angebot auf der Seltenheit kreativer Fähigkeiten basiert. Das macht ihre Argumente nicht falsch – aber es macht sie verdächtig im Sinne von Bourdieus Feldlogik: Jedes Feld verteidigt die Kapitalformen, die in ihm zählen.
Die eigentliche historische Lehre aus dem Buchdruck ist aber eine andere: Das Medium verändert die Kognition wirklich – nur anders als die Kritiker befürchten. Das Lesen gedruckter Texte hat tatsächlich andere Denkformen produziert als das Abschreiben. Lineares Denken, stille Lektüre, der moderne Begriff des Autors, das Individuum als Leser – das sind keine Selbstverständlichkeiten, sondern Produkte des Buchdrucks. Die Theologen lagen also nicht völlig falsch, nur in der Wertung.
Mit KI könnte es ähnlich sein: nicht permanenter Schaden, aber reale kognitive Verschiebung. Die Frage ist nicht ob, sondern wohin.
Das Format als das eigentliche Problem
Was hier vorliegt, ist kein Einzelfall. Es ist ein Muster: Legitime Forschung wird durch rhetorische Kompression so verändert, dass sie alarmistisch klingt, ohne falsch zu sein – aber auch ohne wahr zu sein in dem Sinne, den der Leser ihr beimisst.
Die Zahlen sind präzise. Die Schlussfolgerungen sind es nicht. Die Metaphern – „permanent damage”, „interest rate is permanent” – schaffen eine Gewissheit, die das Datenmaterial nicht trägt. Und sie schaffen Angst, wo Differenzierung angebracht wäre.
Das ist das eigentliche Problem: Nicht der Gebrauch von KI-Werkzeugen, sondern der unreflektierte Gebrauch von Wissenschaftsrhetorik im Dienst der Aufmerksamkeitsökonomie. Beides, wohlgemerkt, lässt sich beobachten, beschreiben und analysieren. Nur sollte man dabei nicht vergessen: Das eine ist ein empirischer Befund, das andere ist ein Kommunikationsphänomen.
Wer den Unterschied nicht sieht, hat vielleicht nicht zu viel ChatGPT benutzt. Sondern zu wenig kritisch gelesen.
Ralf Keuper
