Getting your Trinity Audio player ready...

Immer mehr Men­schen erset­zen jour­nal­is­tis­che Quellen durch Chat­G­PT und glauben, sich damit autonom zu informieren. Doch diese Autonomie ist eine Illu­sion. Die eigentliche Frage lautet nicht, ob KI bess­er schreibt als Jour­nal­is­ten – son­dern wer die richti­gen Fra­gen stellt. Ein Beitrag über den Unter­schied zwis­chen Infor­ma­tion und Bedeu­tung.


Die Zahlen sind ein­deutig: Zwis­chen Jan­u­ar 2024 und Mai 2025 stieg die Nutzung von Chat­G­PT für nachricht­en­be­zo­gene Anfra­gen um über 200 Prozent. Immer mehr Men­schen ver­lassen sich auf Sprach­mod­elle statt auf jour­nal­is­tis­che Quellen. Sie fühlen sich autonomer, informiert­er, unab­hängiger. „Warum soll ich für etwas bezahlen, was ich auch selb­st mit Chat­G­PT recher­chieren kann?” – dieser Satz ist mit­tler­weile ein zen­traler Stre­it­punkt im dig­i­tal­en Medi­en­wan­del.

Doch diese Autonomie ist eine Illu­sion. Die Antworten, die Chat­G­PT liefert, basieren auf aggregierten Inhal­ten – die meis­ten davon stam­men aus jour­nal­is­tis­ch­er Arbeit. Nur dass die ursprünglichen Urhe­ber wed­er genan­nt noch vergütet wer­den. Mehrere große Ver­lage haben deshalb Urhe­ber­recht­skla­gen gegen Ope­nAI ein­gere­icht.

Wer also behauptet, er brauche keinen Jour­nal­is­mus mehr, weil er sich „selb­st mit Chat­G­PT informieren” könne, kon­sum­iert ihn trotz­dem – nur ohne zu zahlen. Es ist, als würde man Wass­er aus einem öffentlichen Brun­nen trinken und gle­ichzeit­ig fordern, die Wasser­w­erke abzuschaf­fen.

Der unbe­queme Ver­gle­ich

Die Analo­gie ist tre­f­fend: Ein Handw­erk­er ver­wen­det Werkzeuge, die fast jed­er im Bau­markt kaufen kann. Den­noch ist das Ergeb­nis ein anderes, wenn ein Profi mit dem Werkzeug arbeit­et oder ein Ama­teur. Für viele Tätigkeit­en im Haus reicht der Ama­teur-Sta­tus – eine Wand stre­ichen, ein Regal aufhän­gen. Aber wenn es um tra­gende Wände, Elek­trik oder San­itär geht, muss der Profi ran. Nicht weil das Werkzeug fehlt, son­dern weil das Wis­sen fehlt: was tra­gend ist, wo Leitun­gen ver­laufen, welche Nor­men gel­ten.

Genau so ver­hält es sich mit KI im Jour­nal­is­mus. Chat­G­PT ist für jeden ver­füg­bar, wie eine Bohrmas­chine im Bau­markt. Viele Men­schen kön­nen damit ein­fache Infor­ma­tion­s­abfra­gen erledi­gen – so wie sie eine Schraube in die Wand drehen kön­nen. Doch sobald es kom­plex wird, sobald es um Ver­i­fika­tion geht, um wider­sprüch­liche Quellen, um ver­steck­te Inter­essen, um die Einord­nung in gesellschaftliche Zusam­men­hänge, zeigt sich der Unter­schied zwis­chen Ama­teur und Profi.

Der Profi weiß nicht nur, wie man das Werkzeug bedi­ent – er weiß, wo man bohren darf und wo nicht. Welche Fra­gen man stellen muss. Welche Antworten plau­si­bel sind und welche verdächtig. Und vor allem: Er haftet für das Ergeb­nis.

Doch viele entwerten genau diese Pro­fes­sion­al­ität. Nie­mand würde seinem Elek­trik­er sagen: „Ich zahle nicht, ich habe auch einen Schrauben­zieher.” Aber bei geistiger Arbeit gilt plöt­zlich: „Ich habe auch Chat­G­PT.” Diese Inkon­se­quenz offen­bart eine schwindende Bewuss­theit für den Unter­schied zwis­chen Werkzeugbe­sitz und pro­fes­sioneller Kom­pe­tenz.

KI schreibt oft bess­er – aber ver­ste­ht nicht

Hier wird es unbe­quem. Denn die Kri­tik­er haben teil­weise recht: Viele KI-Mod­elle schreiben heute bess­er als der Durch­schnitt men­schlich­er Autoren. Sie beherrschen Stilis­tik, Tonal­ität, Argu­men­ta­tion­sstruk­tur und gram­ma­tis­che Präzi­sion auf einem Niveau, das in Blind­tests regelmäßig als „pro­fes­sionell jour­nal­is­tisch” wahrgenom­men wird. Die Medi­en­forschung spricht bere­its von „gen­er­a­tiv­er Wet­tbe­werb­sreife”. KI kann Texte ver­lässlich­er stan­dar­d­isieren, redigieren und objek­tivieren als viele Men­schen.

Der entschei­dende Unter­schied liegt jedoch nicht im Out­put, son­dern im Input: KI gener­iert Wahrschein­lichkeit, kein Ver­ständ­nis. Sie syn­thetisiert Wis­sen aus Quellen, die Men­schen eingegeben haben. Ihre Antworten funk­tion­ieren, solange der Men­sch das Mod­ell mit geeigneten Fra­gen, Quellen und Kor­rek­tur­prozessen steuert. KI „weiß” nicht – sie rech­net.

Die Kun­st der richti­gen Frage – und das ver­lorene kri­tis­che Denken

Der wahre Mehrw­ert des Jour­nal­is­mus liegt nicht im Schreiben, son­dern im Fra­gen. Gute Jour­nal­is­ten sind Fra­gen­de­sign­er. Sie wis­sen, welche Infor­ma­tio­nen fehlen, wie sie zu ver­i­fizieren sind, welche Wider­sprüche eine Quelle aufwirft und wie sich daraus gesellschaftliche Bedeu­tung ableit­en lässt. In Diskus­sio­nen über die Zukun­ft des Jour­nal­is­mus gaben Redak­teure selb­st an, dass „die Fähigkeit, sin­nvolle Fra­gen an kom­plexe Sys­teme – inklu­sive KI – zu stellen, wichtiger wird als das For­mulieren selb­st”.

Doch genau hier offen­bart sich ein besorgnis­er­re­gen­des Para­dox: In ein­er Zeit, in der Infor­ma­tio­nen so leicht ver­füg­bar sind wie nie zuvor, schwindet die Fähigkeit zum unab­hängi­gen kri­tis­chen Denken drama­tisch. Wer Chat­G­PT nach ein­er Antwort fragt, erhält eine – glatt, überzeu­gend, schein­bar autori­ta­tiv. Die wenig­sten hin­ter­fra­gen, auf welchen Quellen diese Antwort basiert, welche Per­spek­tiv­en fehlen, welche Inter­essen dahin­ter­ste­hen kön­nten. Die KI liefert Kon­sens, nicht Kon­tro­verse. Sie syn­thetisiert den Main­stream, eli­m­iniert aber genau jene Rei­bung, aus der kri­tis­ches Denken erwächst.

Unab­hängiger Jour­nal­is­mus hinge­gen lebt von dieser Rei­bung. Er stellt unbe­queme Fra­gen, deckt Wider­sprüche auf, kon­fron­tiert Macht­struk­turen. Er zwingt zum Nach­denken, nicht nur zum Kon­sum­ieren. Doch diese Hal­tung erodiert – nicht nur bei Lesern, son­dern auch in Redak­tio­nen selb­st, wo der Druck zu schneller Pro­duk­tion und algo­rith­mis­ch­er Opti­mierung oft wichtiger wird als tief­greifende Recherche und intellek­tuelle Unab­hängigkeit.

Während Chat­bots Dat­en syn­thetisieren, soll­ten Jour­nal­is­ten Bedeu­tun­gen liefern – also das, was zwis­chen Fak­ten und gesellschaftlich­er Rel­e­vanz liegt. Sie übernehmen Ver­ant­wor­tung für ihre Aus­sagen, kor­rigieren Fehler, haften rechtlich. All das gilt für eine KI nicht. Der Deutsche Jour­nal­is­ten-Ver­band betont, dass KI zwar effizient sei, aber fernab von ethis­ch­er Ver­ant­wor­tung oder Kon­textver­ständ­nis agiere.

Die Gefahr liegt nicht darin, dass KI Jour­nal­is­mus erset­zt – son­dern dass eine Gesellschaft, die das kri­tis­che Hin­ter­fra­gen ver­lernt hat, den Unter­schied nicht mehr erken­nt. Wenn nie­mand mehr fragt, wer eine Infor­ma­tion ver­i­fiziert hat, welche Agen­da dahin­ter­ste­ht, welche Stim­men fehlen, dann spielt es keine Rolle mehr, ob der Text von einem Men­schen oder ein­er Mas­chine stammt. Dann ist die demokratis­che Funk­tion des Jour­nal­is­mus bere­its ver­loren.

Viele Jour­nal­is­ten liefern heute keine Bedeu­tung, weil ihnen tiefes Sach- und Kon­tex­twissen fehlt, um gute Fra­gen zu stellen oder KI arbeit­steilig einzuset­zen. Doch wenn Jour­nal­is­mus seine kog­ni­tive Rolle ernst nimmt, kann er in sym­bi­o­tis­ch­er Inter­ak­tion mit Sys­te­men wie Chat­G­PT, Claude oder Per­plex­i­ty weit bedeu­tungsvollere Inhalte her­vor­brin­gen als jede KI allein.

Die Zukun­ft: Sym­biose statt Ersatz

Branchen­analy­sen zeigen, dass gen­er­a­tive KI die Effizienz in Redak­tio­nen um bis zu 40 Prozent steigern kann. Das Prob­lem ist nicht der Ein­satz von KI, son­dern die Ver­schleierung ihrer Rolle – und das Missver­ständ­nis über ihren eigentlichen Wert.

Die Zukun­ft liegt nicht in KI-Ersatz, son­dern in KI-Dialogkom­pe­tenz. Jour­nal­is­mus muss sich neu definieren: nicht als Pro­duzent von Tex­ten, son­dern als Orches­tra­tor von Wis­sen. Als kri­tis­ch­er Steuer­er von Maschi­nen­in­tel­li­genz. Als Schöpfer von Ver­ste­hen­sräu­men, in denen men­schliche und kün­stliche Intel­li­genz zusam­men­wirken, statt sich zu erset­zen.

Doch diese Zukun­ft set­zt voraus, was heute am meis­ten fehlt: eine Kul­tur des unab­hängi­gen, kri­tis­chen Denkens. Sowohl in Redak­tio­nen als auch beim Pub­likum. Jour­nal­is­mus kann nur dann als gesellschaftliche Infra­struk­tur funk­tion­ieren, wenn es Men­schen gibt, die bere­it sind, unbe­queme Fra­gen zu stellen, vorge­fer­tigte Antworten anzuzweifeln und die Mühe des eigen­ständi­gen Urteilens auf sich zu nehmen.

Wer heute für Jour­nal­is­mus bezahlt, bezahlt nicht für Buch­staben auf einem Bild­schirm. Wer für seine eigene Rou­tinetätigkeit Ent­loh­nung erwartet, gle­ichzeit­ig aber jour­nal­is­tis­che Arbeit entwertet, dem fehlt das Bewusst­sein für eine fun­da­men­tale Wahrheit: Jour­nal­is­mus ist keine Luxu­sware, son­dern eine gesellschaftliche Infra­struk­turleis­tung – wie Energie, Bil­dung oder Recht.

Wis­sen gener­ieren durch struk­turi­erte, reflex­ive, kol­lab­o­ra­tive Abfrage – das ist die neue jour­nal­is­tis­che Pro­fes­sion­al­ität. Nicht KI-Ersatz, son­dern KI-Dialogkom­pe­tenz. Wer die richti­gen Fra­gen stellt, gewin­nt. Doch wer die richti­gen Fra­gen stellen will, muss zuerst wieder ler­nen zu zweifeln, zu hin­ter­fra­gen, unab­hängig zu denken.

Die größte Bedro­hung für den Jour­nal­is­mus ist nicht die kün­stliche Intel­li­genz – son­dern die schwindende men­schliche Bere­itschaft, sie kri­tisch zu befra­gen. Und genau darin liegt die eigentliche Zukun­ft­sauf­gabe: nicht nur bessere Antworten zu liefern, son­dern eine Gesellschaft zu schaf­fen, die über­haupt noch fragt.


Quellen:

KI-Tools für Jour­nal­is­ten: Der kom­plette Guide 2025

Pein­lich: „Alle reden über den gestri­gen KI-Fail beim Spiegel“

Chat­G­PT als Nachricht­en­quelle legt kräftig zu – Ver­lier­er sind die Ver­lage

Wie blick­en Jour­nal­istin­nen und Jour­nal­is­ten auf die Welt?

Claude vs. Per­plex­i­ty: Welche KI passt 2025 bess­er zu Ihrem Unternehmen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert