Eine Studie mit 61 Stu­den­ten wird im Netz zur War­nung vor „per­ma­nen­tem Gehirn­schaden” durch KI. Das ken­nen wir – die The­olo­gen haben gegen den Buch­druck das­selbe Argu­ment geführt. Was dahin­ter steckt, was die Forschung tat­säch­lich zeigt, und warum die inter­es­san­tere Frage nicht lautet: Schadet KI der Kreativ­ität? Son­dern: Wohin ver­schiebt sie sie?


Das For­mat ist bekan­nt: präzise Zahlen, drama­tis­ch­er Befund, finaler Apho­ris­mus. „3.302 kreative Ideen. 61 Per­so­n­en. 30 Tage.” Dann die Schluss­pointe: „You’re not rent­ing a pro­duc­tiv­i­ty boost. You’re financ­ing it with your orig­i­nal­i­ty. The inter­est rate is per­ma­nent.“1https://x.com/heygurisingh/status/2031407961726496815 Was wie ein Warn­schuss aus dem Labor klingt, ist in Wirk­lichkeit ein gut opti­miert­er LinkedIn-Post – viral-tauglich auf­bere­it­ete Forschungsrhetorik, die legit­ime Befunde in Katas­tro­phen­prosa über­set­zt.

Das ist kein Rand­phänomen. Es ist das dominierende Kom­mu­nika­tions­for­mat für wis­senschaftliche Befunde im dig­i­tal­en Raum gewor­den. Und ger­ade deshalb lohnt es sich, genauer hinzuse­hen.

Was die Studie tat­säch­lich zeigt

Die Kern­ergeb­nisse, so wie beschrieben, sind plau­si­bel und nicht unin­ter­es­sant: Eine Gruppe, die Chat­G­PT für kreative Auf­gaben nutzte, erzielte zunächst bessere Ergeb­nisse – und fiel nach Entzug des Werkzeugs auf das Aus­gangsniveau zurück. Zudem näherten sich die Out­puts der Chat­G­PT-Gruppe über Zeit einan­der an: gle­iche Struk­turen, ähn­liche Inhalte, ver­gle­ich­bare For­mulierun­gen.

Das sind beobacht­bare Effek­te, die eine sorgfältige Inter­pre­ta­tion ver­di­enen. Aber „per­ma­nent dam­age” ist das nicht – jeden­falls nicht auf Basis dieser Dat­en.

Erstens: 30 Tage sind kein Maßstab für Per­ma­nenz. Das ist ein Fol­low-up-Zeitraum, keine Längss­chnittstudie. Die Behaup­tung, dass ein Effekt nach einem Monat noch mess­bar ist, sagt nichts darüber aus, ob er nach sechs Monat­en oder nach einem Jahr noch vor­liegt. Hier wird ein tem­po­raler Befund zur ontol­o­gis­chen Diag­nose aufge­blasen.

Zweit­ens: 61 Per­so­n­en, rekru­tiert aus einem stu­den­tis­chen Umfeld, erlauben keine Aus­sagen über „kreative Fähigkeit­en” im All­ge­meinen. Das ist eine Stich­probe, keine Pop­u­la­tion. Gen­er­al­isierun­gen in dieser Größenord­nung – „your cre­ative abil­i­ty may already be per­ma­nent­ly dam­aged” – sind wis­senschaftlich schlicht nicht gedeckt.

Drit­tens, und das ist der method­isch wichtig­ste Punkt: Was hier als „Schaden” beschrieben wird, ist in der Kog­ni­tion­swis­senschaft unter einem anderen Begriff bekan­nt – Dis­use. Wenn eine Funk­tion nicht mehr aus­geübt wird, schwächt sie sich ab. Das gilt für Kopfrech­nen nach Jahren mit dem Taschen­rech­n­er eben­so wie für Ori­en­tierungsver­mö­gen nach jahre­langer GPS-Nutzung. Das ist kein neu­rol­o­gis­ch­er Schaden, son­dern ein Anpas­sungsef­fekt. Reversibel, sofern man die Funk­tion wieder trainiert.

Der inter­es­sante Befund: Homogenisierung

Was in der Drama­tisierung unterge­ht, ist der eigentlich auf­schlussre­iche Befund: die zunehmende Ähn­lichkeit der Out­puts inner­halb der Chat­G­PT-Gruppe. Die Ideen glichen sich an – in Struk­tur, Inhalt, For­mulierung.

Das ist kein indi­vidu­elles Prob­lem, son­dern ein ökol­o­gis­ches. Wenn viele Per­so­n­en das­selbe Werkzeug mit densel­ben trainierten Mustern nutzen, pro­duzieren sie ähn­lichere Ergeb­nisse. Das ist keine Über­raschung – es ist die logis­che Kon­se­quenz eines gemein­samen Fil­ters. Die Vielfalt der Inputs wird durch einen homogenisieren­den Prozes­sor geleit­et und ver­lässt ihn in engeren Bah­nen.

Dieser Effekt ist real und rel­e­vant. Er bet­rifft aber nicht primär das Indi­vidu­um, son­dern die Sys­te­mebene: Was passiert mit der kul­turellen und kog­ni­tiv­en Vielfalt ein­er Gesellschaft, wenn ein erhe­blich­er Teil ihrer kreativ­en Pro­duk­tion durch wenige große Sprach­mod­elle läuft? Das ist eine legit­ime Frage – und eine ern­stere als die indi­vidu­elle Schadensver­mu­tung.

Kah­ne­man in der Werkzeugk­iste

Der zweite im Post zitierte Befund – Chat­G­PT-Nutzer schnit­ten im Über­raschung­stest schlechter ab als Ler­nende ohne KI – passt in eine etablierte kog­ni­tion­swis­senschaftliche Logik. Daniel Kah­ne­man, Gerd Gigeren­z­er und Diet­rich Dörn­er haben unter­schiedliche Facetten des­sel­ben Grund­musters beschrieben: Kog­ni­tive Leis­tun­gen, die nicht aus­geübt wer­den, enkodieren schwäch­er. Wer die Antwort nicht selb­st erar­beit­et, spe­ichert weniger.

Das ist keine Enthül­lung, son­dern Lernpsy­cholo­gie seit den 1970ern. Das spac­ing effect, das Prinzip der desir­able dif­fi­cul­ties, die Forschung zu retrieval prac­tice – all das zeigt: Anstren­gung beim Ler­nen ist keine Inef­fizienz, son­dern der Mech­a­nis­mus der Enkodierung selb­st. Ein Werkzeug, das den Aufwand abn­immt, nimmt damit auch den Lern­ef­fekt ab.

Die rel­e­vante Frage ist deshalb nicht: „Schadet KI der Kreativ­ität?” Son­dern: Unter welchen Nutzungs­be­din­gun­gen entste­hen kog­ni­tive Aus­lagerungsef­fek­te – und unter welchen nicht? Wer KI als Recherche- und Gegen­prü­fungs-Werkzeug nutzt, ist in ein­er anderen Sit­u­a­tion als jemand, der sie als Erst­gen­er­a­tor ein­set­zt und das Ergeb­nis unverän­dert übern­immt. Diese Dif­feren­zierung fehlt in dem Post voll­ständig.

Der Buch­druck und seine Feinde

Das alles ist nicht neu. Als Guten­berg den Buch­druck ein­führte, erhoben sich ähn­liche Ein­wände – und sie kamen nicht nur aus Dummheit oder Macht­gi­er, son­dern hat­ten eine gen­uine epis­te­mol­o­gis­che Dimen­sion.

Im monas­tis­chen Kon­text galt das Abschreiben nicht als bloße Repro­duk­tion, son­dern als Erken­nt­nisakt. Die lec­tio div­ina war untrennbar vom kör­per­lichen Vol­lzug: Die Hand führt den Grif­fel, der Geist fol­gt dem Text, der Text prägt sich ein. Wer nur liest – und noch schlim­mer: wer gedruckt liest, schnell, ober­fläch­lich, ohne den Wider­stand des Abschreibens – ver­liert den Zugang zur tief­er­en Bedeu­tung. Das klingt nach Relikt, hat aber eine kog­ni­tive Entsprechung: genau jene desir­able dif­fi­cul­ties, die Kah­ne­man Jahrhun­derte später beschreiben würde.

Gle­ichzeit­ig war die Kri­tik Machtschutz. Die Deu­tung­shoheit über Texte lag bei denen, die sie abschreiben, über­set­zen und kom­men­tieren kon­nten. Der Buch­druck demokratisierte nicht nur den Zugang – er entwertete eine Kom­pe­tenz, die soziale Stel­lung begrün­dete.

Das ist der Punkt, der die heutige Debat­te beson­ders inter­es­sant macht: Die Kri­tik am KI-Werkzeug trifft struk­turell immer auch jeman­den, der ein Inter­esse an der Knap­pheit der alten Kom­pe­tenz hat. Der Jour­nal­ist, der warnt, dass Chat­G­PT das Schreiben beschädigt. Der Hochschullehrer, der befürchtet, dass KI das Denken erset­zt. Der Kreativber­ater, dessen Ange­bot auf der Sel­tenheit kreativ­er Fähigkeit­en basiert. Das macht ihre Argu­mente nicht falsch – aber es macht sie verdächtig im Sinne von Bour­dieus Feld­logik: Jedes Feld vertei­digt die Kap­i­tal­for­men, die in ihm zählen.

Die eigentliche his­torische Lehre aus dem Buch­druck ist aber eine andere: Das Medi­um verän­dert die Kog­ni­tion wirk­lich – nur anders als die Kri­tik­er befürcht­en. Das Lesen gedruck­ter Texte hat tat­säch­lich andere Denk­for­men pro­duziert als das Abschreiben. Lin­ear­es Denken, stille Lek­türe, der mod­erne Begriff des Autors, das Indi­vidu­um als Leser – das sind keine Selb­stver­ständlichkeit­en, son­dern Pro­duk­te des Buch­drucks. Die The­olo­gen lagen also nicht völ­lig falsch, nur in der Wer­tung.

Mit KI kön­nte es ähn­lich sein: nicht per­ma­nen­ter Schaden, aber reale kog­ni­tive Ver­schiebung. Die Frage ist nicht ob, son­dern wohin.

Das For­mat als das eigentliche Prob­lem

Was hier vor­liegt, ist kein Einzelfall. Es ist ein Muster: Legit­ime Forschung wird durch rhetorische Kom­pres­sion so verän­dert, dass sie alarmistisch klingt, ohne falsch zu sein – aber auch ohne wahr zu sein in dem Sinne, den der Leser ihr beimisst.

Die Zahlen sind präzise. Die Schlussfol­gerun­gen sind es nicht. Die Meta­phern – „per­ma­nent dam­age”, „inter­est rate is per­ma­nent” – schaf­fen eine Gewis­sheit, die das Daten­ma­te­r­i­al nicht trägt. Und sie schaf­fen Angst, wo Dif­feren­zierung ange­bracht wäre.

Das ist das eigentliche Prob­lem: Nicht der Gebrauch von KI-Werkzeu­gen, son­dern der unre­flek­tierte Gebrauch von Wis­senschaft­srhetorik im Dienst der Aufmerk­samkeit­sökonomie. Bei­des, wohlge­merkt, lässt sich beobacht­en, beschreiben und analysieren. Nur sollte man dabei nicht vergessen: Das eine ist ein empirisch­er Befund, das andere ist ein Kom­mu­nika­tion­sphänomen.

Wer den Unter­schied nicht sieht, hat vielle­icht nicht zu viel Chat­G­PT benutzt. Son­dern zu wenig kri­tisch gele­sen.

Ralf Keu­per 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert