Von Ralf Keu­per 

Der Gebrauch großer Sprach­mod­elle für die Erstel­lung von Auf­sätzen ist für die Nutzerin­nen und Nutzer ein zweis­chnei­di­ges Schw­ert. Auf der einen Seite gelingt es mit über­schaubarem kog­ni­tiv­en Aufwand, Texte zu ver­fassen, die Außen­ste­hen­den nicht sel­ten den Ein­druck großer Ken­ner­schaft ver­mit­teln. Häu­fig ist es jedoch so, dass die Ver­fass­er sel­ber auf Nach­frage den Inhalt nur unvoll­ständig wiedergeben und den roten Faden nicht find­en kön­nen. Das ist beson­ders für Schü­lerin­nen und Stu­dentin­nen beden­klich, die erst am Anfang ihrer “Bil­dungslauf­bahn” ste­hen und sich erst noch eigen­ständig eine Wis­sens­ba­sis erar­beit­en müssen — und das ist — und bleibt — mit Aufwand und Arbeit ver­bun­den. Die andere Frage ist jedoch, ob und inwieweit Men­schen, die bere­its einen ver­gle­ich­sweise hohen Wis­sens­stand erre­icht und noch dazu aus ihrem Erfahrungss­chatz schöpfen kön­nen, von den neg­a­tiv­en Effek­ten bei der Nutzung großer Sprach­mod­elle betrof­fen sind.

MIT-Forsch­er schla­gen Alarm 

Forsch­er des MIT bericht­en in “Your Brain on Chat­G­PT: Accu­mu­la­tion of Cog­ni­tive Debt when Using an AI Assis­tant for Essay Writ­ing Task” nun von den neu­ronalen und ver­hal­tens­be­zo­ge­nen Auswirkun­gen des Auf­satzschreibens mit Unter­stützung großer Sprach­mod­elle (LLMs).

Die Studie teilte die Teil­nehmer in drei Grup­pen ein: eine LLM-Gruppe, eine Such­maschi­nen-Gruppe und eine “Brain-only”-Gruppe (ohne Werkzeuge). Jede Gruppe absolvierte drei Sitzun­gen unter densel­ben Bedin­gun­gen. In ein­er vierten Sitzung wur­den die LLM-Nutzer der “Brain-only”-Gruppe zuge­ord­net (LLM-zu-Brain), und die “Brain-only”-Nutzer wur­den der LLM-Bedin­gung zuge­ord­net (Brain-zu-LLM)

Mit­tels Elek­troen­zephalo­gra­phie (EEG) wurde die kog­ni­tive Belas­tung gemessen und die Auf­sätze wur­den mit­tels NLP analysiert sowie von men­schlichen Lehrern und einem KI-Richter bew­ertet.

Die Ergeb­nisse zeigten sig­nifikante Unter­schiede in der Gehirnkon­nek­tiv­ität: “Brain-only”-Teilnehmer zeigten die stärk­sten und am weitesten ver­bre­it­eten Net­zw­erke, während LLM-Nutzer die schwäch­ste Kon­nek­tiv­ität aufwiesen. Die kog­ni­tive Aktiv­ität nahm in Abhängigkeit von der Nutzung extern­er Werkzeuge ab. In der vierten Sitzung zeigten LLM-zu-Brain-Teil­nehmer eine reduzierte Alpha- und Beta-Kon­nek­tiv­ität, was auf eine gerin­gere Beteili­gung hin­deutet.

Das selb­st­berichtete Gefühl der Urhe­ber­schaft der Auf­sätze war in der LLM-Gruppe am niedrig­sten und in der “Brain-only”-Gruppe am höch­sten. LLM-Nutzer hat­ten auch Schwierigkeit­en, ihre eigene Arbeit genau zu zitieren. Obwohl LLMs sofor­ti­gen Kom­fort bieten, deuten die Ergeb­nisse auf poten­zielle kog­ni­tive Kosten hin. Über einen Zeitraum von vier Monat­en zeigten LLM-Nutzer durch­weg schlechtere Leis­tun­gen auf neu­ronaler, sprach­lich­er und ver­hal­tens­be­zo­gen­er Ebene. Diese Ergeb­nisse wer­fen Bedenken hin­sichtlich der langfristi­gen Bil­dungs­fol­gen der LLM-Abhängigkeit auf und unter­stre­ichen die Notwendigkeit ein­er tiefer­ge­hen­den Unter­suchung der Rolle von KI beim Ler­nen.

Bew­er­tung 

Der Ver­fass­er (RK) teilt die Bedenken — kommt aber zu ein­er etwas opti­mistis­chen Sicht.

Schreiben als Kul­turtech­nik 

Unbe­strit­ten ist, dass das Schreiben mit der Hand eine Kul­turtech­nik ist, die unbe­d­ingt erhal­ten wer­den muss1Schreiben als Kul­turtech­nik. Ver­schiedene Stu­di­en weisen darauf hin, dass dass etwas, das von der Hand geschrieben wurde, bess­er im Gehirn ver­ankert ist, als Texte, die über die Tas­tatur oder berührungssen­si­tive Gerä­teober­flächen mehr oder weniger flüchtig hinge­wor­fen wer­den. So gese­hen wären auch die Proban­den aus der Brain-only-Gruppe flüchtig unter­wegs. Das Her­mann von Helmholtz-Zen­trum für Kul­turtech­nik in Berlin hat sich u.a. „der sys­tem­a­tis­chen Erforschung der Wech­sel­wirkun­gen zwis­chen wis­senschaftlichen oder kul­turellen Umbrüchen und tech­nis­chen Neuerun­gen“ ver­schrieben.

Schon der pro­fane Notizzettel erfüllt eine wichtige Funk­tion als Werkzeug des Geistes2Notizzettel. Denken und Schreiben im 21. Jahrhun­dert — bestes Beispiel dafür ist der leg­endäre Zettelka­s­ten von Niklas Luh­mann3Luhmann’s Zettelka­s­ten — analoges Vor­bild für die Funk­tion­sweise großer Sprach- und KI-Mod­elle.

Für Hans-Jörg Rhein­berg­er ist Schreiben ein Exper­i­men­tal­stem

Das Schreiben, so behaupte ich, ist selb­st ein Exper­i­men­tal­sys­tem. Es ist eine Ver­such­sanord­nung. Es ist nicht nur ein Aufze­ich­nen von Dat­en, Tatbestän­den oder Ideen. Es ist auch nicht ein­fach der bil­lige Ersatz für die lebendi­ge Rede. Es ist nicht ein­fach das trans­par­ente Medi­um der Gedanken. Es gibt ihnen eine materielle Ver­fas­sung und zwar eine, die das Entste­hen von Neuem ermöglicht. Auch die Schrift begrün­det Bah­nen, auf denen Spuren hin­ter­lassen wer­den, auf die man zurück­kom­men und über die man, indem man das tut, hin­aus­ge­hen kann. Es vol­lzieht sich also durch das Nieder­schreiben, wie man mit Edmund Husserl sagen kann, nicht nur eine Ver­wand­lung der Exis­ten­zweise von Sin­nge­bilden, son­dern es entste­hen auch neue, die sich, wie alle neuen Erwerbe, „wieder sed­i­men­tieren und wieder zu Arbeits­ma­te­ri­alien wer­den“. Schreiben ist mithin in einem ele­mentaren Sinne auch die Voraus­set­zung für alle Wissenschaft(Über die Kun­st, das Unbekan­nte zu erforschen, in: Say it isn’t so.)

Wobei der Ver­fass­er hier hinzufü­gen möchte, dass es auch mit­tels gen­er­a­tiv­er KI dur­chaus möglich ist, neue Sin­nge­bilde zu erschaf­fen, wen­ngle­ich auf eine andere Art.

Mehr oder weniger Autorschaft

Anlässlich ein­er Ver­anstal­tungsrei­he (»Is the artist nec­es­sary for mak­ing art today«?) des KWI Essen und der Folk­wang Uni­ver­sität der Kün­ste hieß es4Mehr oder weniger Autorschaft:

Dig­i­tale Lit­er­atur, gen­er­a­tive Ver­fahren im Design oder der Bilder­stel­lung, die mit­tels sprachges­teuert­er Bild­gen­er­a­toren den alten Zwist zwis­chen icon­ic und lin­guis­tic turn neu per­spek­tivieren, sind nur einige aktuelle Möglichkeit­en, die das Schreiben, Denken und Gestal­ten als steti­gen Rück­kop­plung­sprozess zwis­chen Objek­twelt und Bewusst­sein ver­ste­hen und – im Rück­griff etwa auf den Sur­re­al­is­mus und dessen Tech­niken des automa­tis­chen Schreibens – mehr geschehen lassen, als selb­st zu pro­duzieren. Wo Absur­ditäten von KI-gener­ierten Bildern und Tex­ten als fea­ture eines Werkes her­vortreten oder Natur als Vor­lage ein­er Nicht-Ich Welt auf­scheint, wird Kun­st zur kol­lab­o­ra­tiv­en Aushand­lung. Solche kün­st­lerischen Exper­i­mente bauen den Autor:innengenius ab und hal­ten nicht länger an ein­er Son­der­stel­lung des Men­schen fest. Aber ver­schwindet deswe­gen das kün­st­lerische Sub­jekt? »Is the artist nec­es­sary for mak­ing art today«?

Wie dig­i­tale Medi­en unser Gehirn verän­dern

Nach Ansicht einiger Hirn­forsch­er, darunter Ger­ald Hüther, lei­det unser Stirn­hirn unter der Reizüber­flu­tung durch die dig­i­tal­en Medi­en. Eine sprung­hafte Aufmerk­samkeit ist die Folge. Ander­er­seits lassen sich in anderen Hirn­re­gio­nen dig­i­tale Intel­li­gen­zsteigerun­gen beobacht­en, z.B. als Folge des Schreibens von SMS-Nachricht­en. Hinzuzufü­gen wäre, dass der “nor­male” Nutzer mit den Sprach­mod­ellen per Schrift/Tastatureingabe kom­mu­niziert — was in bes­timmten Hirn­re­gio­nen zu Intel­li­gen­zsteigerun­gen führt.

Der sen­so­mo­torische Kor­tex, der zuständig für die Reg­u­la­tion der Dau­men­be­we­gung ist, ist bei den heute 15jährigen dop­pelt so groß. Obwohl die Dig­i­tal Natives viel schneller optis­che Ein­drücke aufnehmen und ver­ar­beit­en kön­nen, sind auch sie nicht mul­ti­task­ing-fähig. Unser Gehirn funk­tion­iert nicht wie ein Com­put­er. Wir kön­nen uns immer nur auf eine Auf­gabe konzen­tri­eren.

Generelle Kri­tik an der Nutzung bildgeben­der Ver­fahren in der Hirn­forschung

Vor eini­gen Jahren wurde die Hirn­forschung in ihren Grund­festen erschüt­tert, also bekan­nt wurde, dass ein gewöhn­lich­er „Bug“, ein Soft­warefehler, 24 Jahre Hirn­forschung zunichte machte5Die Defizite bildgeben­der Ver­fahren am Beispiel der Hirn­forschung.

Wie sein­erzeit Moth­er­board und Heise berichteten, hat­ten Forsch­er der schwedis­chen Uni­ver­sität Linköping fest­gestellt, dass die Analysemeth­o­d­en der drei meist genutzten Soft­ware-Pakete, die bei der Funk­tionellen Mag­ne­tres­o­nanz einge­set­zt wer­den, zu Ergeb­nis­sen führen, die sog. Falsch-Pos­i­tiv-Rat­en von bis zu 70 Prozent erzeu­gen. Aus­ge­gan­gen waren die Forsch­er von 5 Prozent. Das hat dazu geführt, dass Hir­nak­tiv­itäten angezeigt wur­den, obwohl keine vor­la­gen. Es wur­den also pos­i­tive Dat­en aus­gegeben, obwohl nicht vorhan­den. Damit kön­nen 40.000 fMRT-Stu­di­en seit 1992 nahezu wert­los sein. Ver­ant­wortlich für diese gravieren­den Abwe­ichun­gen sei ein Soft­warefehler, der sich vor 15 Jahren im Quell­code der Soft­ware eingeschlichen habe, der inzwis­chen aber beseit­igt wurde.

Gründe für die fehler­haften Werte seien, so u.a. Moth­er­board, hohe Kosten für fMRT-Scans sowie die geringe Rechenka­paz­itäten, die großan­gelegte Unter­suchun­gen mit mehreren hun­dert Proban­den bis vor kurzem noch unmöglich macht­en. Dank gestiegen­er Rechen­leis­tun­gen und des Data Shar­ing kön­nten die Unter­suchun­gen mit­tler­weile schneller vali­diert wer­den.

Bere­its seit Jahren gibt es Kri­tik am Ein­satz bildgeben­der Ver­fahren in der Hirn­forschung, wie von Felix Hasler. In einem Inter­view mit dem SPIEGEL sagte Hasler:

Einige Hirn­forsch­er reklamieren umfassende Wel­terk­lärungsansprüche, dabei sind ihre empirischen Dat­en zu kom­plex­en Bewusst­seinsvorgän­gen kaum belast­bar. Die Wieder­hol­barkeit viel­er Stu­di­en ist ger­ing. Ger­ade bei der funk­tionellen Mag­ne­tres­o­nanz­to­mo­grafie (fMRT) liegt die Über­schnei­dung der Bildge­bungs­dat­en bei Mess­wieder­hol­ung oft unter 30 Prozent. Kaum ein ander­er Wis­senschaft­szweig würde damit durchkom­men. Aber die Öffentlichkeit lässt sich gerne vom Neu­roglam­our blenden.

Hans Sand­küh­ler hält in Kri­tik der Repräsen­ta­tion zum method­is­chen Vorge­hen der fMRT in der Hirn­forschung u.a. fest:

In neu­rowis­senschaftlichen Exper­i­menten wer­den nicht men­tale repräsen­ta­tionale Leis­tun­gen gemessen, deren physis­che Basis diese oder jenes indi­vidu­elle Gehirn ist, son­dern physis­che Prozesse/Zustände eines neu­ro­bi­o­tis­chen Sys­tems. Die Prozesse/Zustände dieses Sys­tems wer­den auf­grund bes­timmter the­o­riegeleit­eter Hypothe­sen und Erken­nt­nisziele und mith­il­fe mathematischer/statistischer Meth­o­d­en in Bilder/Zeichen trans­formiert. Die trans­formierten Dat­en wer­den als Repräsen­ta­tio­nen inter­pretiert. Je nach dem gewählten epis­te­mol­o­gis­chen Pro­fil, nach der präferierten Rah­men­the­o­rie und dem der The­o­rie zuge­höri­gen Begriff­ss­chema kommt es – oder kommt es nicht – zu Aus­sagen über men­tale Aktiv­itäten im Gehirn. Diese ergeben sich aber nicht direkt aus dem exper­i­mentell gewonnenen Daten­ma­te­r­i­al, son­dern sind das Ergeb­nis von Inter­pre­ta­tio­nen. Die Inter­pre­ta­tio­nen sind an Überzeu­gun­gen, Denkstile, Denkge­mein­schaften und Wis­senskul­turen gebun­den.

Selb­st das Lesen hin­ter­lässt — je nach­dem, in welch­er Sprache man aufwächst — unter­schiedliche Spuren im Gehirn:

Kön­nten wir alle Möglichkeit­en betra­cht­en, die das Gehirn in den Anfän­gen zum Lesen­ler­nen benutzt hat, so wür­den wir einige Areale find­en, die sich größ­ten­teils entsprechen, und einige Merk­male, die für einzelne Schrift­sprachen charak­ter­is­tisch sind. Bei ein­er weg­weisenden Meta­analyse von 25 Unter­suchun­gen ver­schieden­er Sprachen mit bildgeben­den Ver­fahren fan­den Kog­ni­tion­swis­senschaftler der Uni­ver­sität Pitts­burgh drei große gemein­same Hirn­re­gio­nen, die in unter­schiedlichem Maße bei allen Schrift­sys­te­men genutzt wer­den (Maryanne Wolf. Das lesende Gehirn. Wie der Men­sch zum Lesen kam — und was es in unseren Köpfen bewirkt).

Abschließende Gedanken

Die Nutzung großer Sprach­mod­elle kommt mit “verdeck­ten kog­ni­tiv­en Kosten” daher — keine Frage. Das gilt jedoch für alle mod­er­nen Medi­en — spätestens mit dem Buch­druck, der damals von den Kirchen bekämpft wurde, da es nicht sein kon­nte, das Unbefugte sich anmaßten, die Heilige Schrift zu inter­pretieren, ohne zuvor dank jahrzen­te­langer, inten­siv­er Beschäf­ti­gung in deren Geheimnisse einge­drun­gen zu sein. Die Schreib­schulen der Klöster fühlten sich zu Recht in ihrem Sta­tus bedro­ht — aber auch damals waren die Mönche größ­ten­teils damit beschäftigt, ein­fach nur abzuschreiben — ob sie das Geschriebene immer wirk­lich ver­standen haben darf zumin­d­est bezweifelt wer­den. Dabei ist es recht uner­he­blich, ob die entsprechen­den Hirn­re­gio­nen gut aus­ge­bildet waren oder nicht.

Per­so­n­en, die die “alten” Kul­turtech­niken beherrschen und sich über Jahre durch Nutzung der ver­schieden­sten Medi­en und natür­lich auch auf­grund eigen­er Erfahrun­gen einen Wis­sens­stand erar­beit­et haben, wer­den von der Nutzung großer Sprach­mod­elle mehr prof­i­tieren als ver­lieren — so jeden­falls die Ansicht des Ver­fassers, der sel­ber regen Gebrauch von den ver­schiede­nen Sprach­mod­ellen macht. Wie es sich bei der jun­gen, her­anwach­senden Gen­er­a­tion ver­hält, muss sich m.E. erst noch zeigen. Es ist dur­chaus vorstell­bar, dass, wie Ger­ald Hüther andeutet, andere für Intel­li­genz zuständi­ge Hirn­re­gio­nen im Men­schen durch LLMs angeregt wer­den.

Generell gilt die Ein­schränkung: A fool with a tool is still a fool.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert