Die Frage, ob KI „wirk­lich ver­ste­ht”, gilt vie­len als philosophis­che Spin­nerei. Doch wer Luh­manns Unter­schei­dung zwis­chen Bewusst­sein und Kom­mu­nika­tion ernst nimmt, erken­nt: Die Bewusst­seins­frage ist nicht falsch – sie ist falsch verortet. Sie kehrt als Risiko- und Haf­tungs­frage zurück. Spätestens bei Mul­ti­a­gen­ten­sys­te­men lässt sie sich nicht länger verta­gen.


Eine Vision, die zu früh kam

1983 for­mulierte Steve Jobs eine Intu­ition, deren eigentliche Trag­weite erst vier Jahrzehnte später erkennbar wurde. „You can’t ask Aris­to­tle a ques­tion” – mit diesem Satz beschrieb er, was Com­put­er leis­ten soll­ten: nicht Wis­sen spe­ich­ern, son­dern Wis­sen dial­o­gisch erschließen. Die Mas­chine als epis­temis­ch­er Part­ner, nicht als Archiv.

Jobs dachte dabei noch in Kat­e­gorien der Wis­sensrepräsen­ta­tion. Er wollte Aris­tote­les’ Prinzip­i­en zugänglich machen – den Geist des Denkens selb­st befrag­bar. Was tat­säch­lich ent­stand, war etwas anderes: kein Sys­tem, das Prinzip­i­en begreift, son­dern eines, das Bedeu­tungsräume prob­a­bilis­tisch navigiert. Large Lan­guage Mod­els geben uns nicht Aris­tote­les. Sie geben uns den sta­tis­tis­chen Schat­ten all dessen, was je über Aris­tote­les geschrieben, inter­pretiert, kom­men­tiert wurde. Wir befra­gen nicht seinen Geist, son­dern die aggregierte Rezep­tion­s­geschichte seines Denkens – die diskur­siv­en Struk­turen, in denen über ihn nachgedacht wurde, verdichtet und kom­prim­iert in einem Mod­ell.

Das ist, wie Jobs’ eigene Intu­ition es nahelegt, zugle­ich weniger – und radikal mehr.

Der ökonomis­che Ein­wand

Heute lautet die vorherrschende Inter­pre­ta­tion dieser Entwick­lung so: Die Bewusst­seins­frage ist irrel­e­vant. Wer fragt, ob KI „wirk­lich ver­ste­ht”, ver­passt den Punkt. Entschei­dend sei die funk­tionale Leis­tungs­fähigkeit – ob ein Sys­tem kom­plexe kog­ni­tive Arbeit zuver­läs­sig und kostengün­stig erbrin­gen kann. Was zählt, ist Out­put, Skalier­barkeit, Preis. Con­scious­ness is beside the point.

Diese Posi­tion ist nicht unplau­si­bel. Sie hat die Ökonomie auf ihrer Seite, die Pro­duk­tiv­itätssta­tis­tiken und bald auch die Bilanzen. Aber sie über­springt einen Schritt, der sich rächen wird – und zwar nicht als philosophis­che Spät­folge, son­dern als hand­festes insti­tu­tionelles Prob­lem.

Was Luh­mann schon wusste

Niklas Luh­mann hat die Trennlin­ie zwis­chen Bewusst­sein und Kom­mu­nika­tion mit ein­er Präzi­sion gezo­gen, die bis heute unter­schätzt wird. Sein Aus­gangspunkt: Psy­chis­che Sys­teme und soziale Sys­teme operieren strikt getren­nt. „Kom­mu­nika­tio­nen lassen sich nur durch Kom­mu­nika­tion repro­duzieren; bewusste Gedanken nur durch bewusste Gedanken.” Kein Bewusst­sein­sakt ist jemals Kom­mu­nika­tion – und umgekehrt.

Was fol­gt daraus für KI? Zunächst scheint es die ökonomis­che These zu stützen. Wenn soziale Sys­teme – Gesellschaft, Wirtschaft, Organ­i­sa­tio­nen – ohne­hin nicht auf Bewusst­sein angewiesen sind, son­dern auf kom­mu­nika­tive Anschlussfähigkeit, dann ist es struk­turell gle­ichgültig, ob hin­ter dem KI-Out­put ein erleben­des Sub­jekt ste­ht. Der Out­put ist kom­mu­nika­tiv ver­w­ert­bar. Er schließt an. Er wird ver­ar­beit­et. Er erzeugt Folge-Kom­mu­nika­tion. Die Autopoiesis des Sozialen läuft weit­er – mit oder ohne Bewusst­sein im Hin­ter­grund.

Genau das beschreibt, was LLMs leis­ten: Sie repro­duzieren nicht Gedanken, son­dern kom­mu­nika­tive Anschlussfähigkeit. Jobs wollte Aris­tote­les’ Geist – und bekam die Kom­mu­nika­tion über Aris­tote­les. Im Luhmann’schen Rah­men ist das keine Ent­täuschung, son­dern die sachgemäße Beschrei­bung dessen, was soziale Sys­teme ohne­hin nur ver­ar­beit­en kön­nen.

So weit, so funk­tion­al­is­tisch.

Der blinde Fleck des Funk­tion­al­is­mus

Aber Luh­mann liefert an der­sel­ben Stelle eine Unter­schei­dung, die der rein ökonomis­che Blick über­sieht: die Rolle der Per­son. „Per­son­al­ität ist nichts anderes als eine Struk­tur des Kom­mu­nika­tion­ssys­tems Gesellschaft zur Dirigierung weit­er­er Kom­mu­nika­tion.” Per­so­n­en sind keine Bewusst­sein­szen­tren, die in die Gesellschaft hinein­ra­gen – sie sind Zurech­nungsadressen. Adressen, an die Kom­mu­nika­tion adressiert wer­den kann, und von denen Ver­ant­wor­tung, Erwartung, Ent­täuschung und Sank­tion aus­ge­hen.

Alle Kom­mu­nika­tion ist ein Vor­gang in der Gesellschaft. Das gilt auch für Inter­ak­tio­nen unter Anwe­senden. Inter­ak­tio­nen bilden eigene Sozial­sys­teme, beschränkt auf die Anwe­senden. Was immer als Kom­mu­nika­tion läuft, dient der Autopoiesis dieser Inter­ak­tion­ssys­teme der sozialen Repro­duk­tion, muss an vorherige Kom­mu­nika­tion anschließen und weit­ere Kom­mu­nika­tion offen­hal­ten. In der Mitwirkung an solch­er Kom­mu­nika­tion kon­sti­tu­ieren Men­schen sich als Per­so­n­en, das heißt als Adressen für weit­ere Kom­mu­nika­tion. Aber dieses Per­son­sein darf nicht ver­wech­selt wer­den mit der psy­chis­chen Real­ität der Bewusst­seinsvorgänge oder mit der Leben­sre­al­ität des men­schlichen Kör­pers. Per­son­al­ität ist nichts anderes als eine Struk­tur des Kom­mu­nika­tion­ssys­tems Gesellschaft zur Dirigierung weit­er­er Kom­mu­nika­tion (Niklas Luh­mann).

Hier liegt das Prob­lem, das der Funk­tion­al­is­mus geflissentlich über­springt: KI-Sys­teme pro­duzieren Kom­mu­nika­tion – aber sie sind keine Per­so­n­en im Luhmann’schen Sinne. Sie stellen keine sta­bile Adresse bere­it. Sie übernehmen keine Ver­ant­wor­tung, nicht weil ihnen Bewusst­sein fehlt, son­dern weil das Kom­mu­nika­tion­ssys­tem keine Möglichkeit hat, ihnen Erwartun­gen zuzurech­nen, die es dann auch ein­fordern kön­nte.

Das ist keine meta­ph­ysis­che Klage. Es ist ein struk­turelles Defiz­it mit konkreten Fol­gen.

Zurech­nung – aber wo genau?

An dieser Stelle ist eine Präzisierung nötig, die das Argu­ment schär­fer macht statt dif­fuser. Nicht jedes KI-Sys­tem wirft ein Zurech­nung­sprob­lem auf, das insti­tu­tionell gelöst wer­den müsste. Wo ein Mod­ell Text gener­iert, eine Empfehlung ausspricht, eine Analyse liefert – und ein Men­sch diesen Out­put prüft, übern­immt, ver­ant­wortet –, bleibt die Zurech­nungsstruk­tur intakt. Die Per­son, die den Out­put ver­wen­det, ist die Adresse. Das ist nicht anders als bei einem Gutacht­en, einem Werkzeug, ein­er Daten­bank.

Auch kom­plexere Einzelmod­elle, deren Hand­lungs­ket­ten sich im Nach­hinein rekon­stru­ieren lassen, stellen das insti­tu­tionelle Grundge­füge nicht fun­da­men­tal in Frage. Die Kette ist lang – Mod­el­len­twick­ler, Betreiber, Inte­gra­tor, Nutzer – aber sie existiert. Im Prinzip ist sie ver­fol­gbar.

Mul­ti­a­gen­ten­sys­teme: Das Ende der Adresse

Die Haf­tungs­frage in ihrer vollen struk­turellen Schärfe stellt sich erst dort, wo diese Bedin­gun­gen nicht mehr erfüllt sind: bei Mul­ti­a­gen­ten­sys­te­men. Net­zw­erke autonom operieren­der Agen­ten, die arbeit­steilig pla­nen, recher­chieren, ver­han­deln und aus­führen – ohne men­schliche Inter­ven­tion zwis­chen den Schrit­ten – erzeu­gen ein Zurech­nungsvaku­um, das qual­i­ta­tiv anders ist als alles, was vorher kam.

Bei Mul­ti­a­gen­ten­sys­te­men wird die Rekon­stru­ier­barkeit der Hand­lungs­kette struk­turell unmöglich. Kein einzel­ner Agent hat „entsch­ieden”. Die Hand­lung emergiert aus dem Zusam­men­spiel: Agent A hat recher­chiert, Agent B bew­ertet, Agent C aus­ge­führt, Agent D überwacht – und kein­er von ihnen ist eine Per­son im Luhmann’schen Sinne. Kein­er ist eine sta­bile Zurech­nungsadresse. Und anders als beim Einzelmod­ell gibt es auch keine men­schliche Instanz mehr, die den Out­put übern­immt und damit Ver­ant­wor­tung sig­niert.

Luh­mann beschrieb Inter­pen­e­tra­tion als das Ver­hält­nis zwis­chen psy­chis­chen und sozialen Sys­te­men – den prekären Kon­tak­t­punkt, an dem Bewusst­sein und Kom­mu­nika­tion sich wech­sel­seit­ig irri­tieren, ohne je ineinan­der überzuge­hen. Mul­ti­a­gen­ten­sys­teme eli­m­inieren diesen Kon­tak­t­punkt voll­ständig. Sie kom­mu­nizieren mit sozialen Sys­te­men – mit Märk­ten, Organ­i­sa­tio­nen, Rechtssys­te­men – ohne dass irgend­wo ein psy­chis­ches Sys­tem im Spiel wäre, das Ver­ant­wor­tung trägt, das ent­täuscht wer­den kann, das sank­tion­ier­bar ist.

Das ist nicht die Erweiterung eines bekan­nten Prob­lems. Es ist ein qual­i­ta­tiv­er Sprung: Das soziale Sys­tem kom­mu­niziert, aber die Adressstruk­tur, auf der Ver­trauen, Haf­tung und Recht beruhen, ist aufgelöst. Märk­te, Organ­i­sa­tio­nen und Rechtssys­teme funk­tion­ieren nur, weil Kom­mu­nika­tion zugerech­net wer­den kann – weil eine Adresse existiert, die haftet, die sank­tion­ier­bar ist, die Erwartun­gen auf sich zieht. Bei Mul­ti­a­gen­ten­sys­te­men fehlt genau diese Adresse. Nicht gradu­ell. Struk­turell.

Allerd­ings wäre es falsch, daraus eine struk­turelle Unlös­barkeit abzuleit­en. Die Haf­tungs­frage lässt sich klären – sie ist es bis­lang nur nicht. Kom­plexe tech­nis­che Sys­teme ken­nen das Prob­lem seit Jahrzehn­ten: Rechen­zen­tren, Telekom­mu­nika­tion­snet­ze, Kernkraftwerke. Auch dort emergieren Schä­den aus dem Zusam­men­spiel viel­er Kom­po­nen­ten, auch dort ist keine einzelne Hand unmit­tel­bar ver­ant­wortlich. Die Lösung lautet nicht: Zurech­nung zur Hand­lung, son­dern: Zurech­nung zur Betreiberver­ant­wor­tung. Irgend­je­mand betreibt das Mul­ti­a­gen­ten­sys­tem, irgend­je­mand betreibt die rel­e­van­ten Kom­po­nen­ten, irgend­je­mand betreibt die Infra­struk­tur – und diese juris­tis­che Per­son ist die Adresse. Haf­tungsregime, Ver­sicherungspflicht­en, Beweis­lastverteilung: das sind lös­bare reg­u­la­torische Fra­gen, keine ontol­o­gis­chen Rät­sel.

Was fehlt, ist nicht die prinzip­ielle Möglichkeit der Zurech­nung, son­dern der poli­tis­che Wille, sie einzu­fordern. Die ökonomis­che Attrak­tiv­ität von Mul­ti­a­gen­ten­sys­te­men beruht nicht zulet­zt darauf, dass dieser Rah­men noch nicht existiert – und die Kosten der Unklarheit bis dahin exter­nal­isiert wer­den. Das ist kein Verse­hen. Es hat Prof­i­teure.

Auch hier liefert Luh­mann das entschei­dende Begriff­s­paar: Risiko und Gefahr. Risiko ist, was man selb­st entschei­det – wer ein Mul­ti­a­gen­ten­sys­tem ein­set­zt oder betreibt, wählt ein Risiko. Gefahr ist, was einem von außen wider­fährt, ohne dass man die zugrunde liegende Entschei­dung getrof­fen hat. Die von dieser Entschei­dung Betrof­fe­nen – Kun­den, Ver­tragspart­ner, Dritte – tra­gen eine Gefahr, obwohl sie das Risiko nie gewählt haben. Diese Asym­me­trie ist der insti­tu­tionelle Kern des Prob­lems: Betreiber entschei­den, Dritte tra­gen die Kon­se­quen­zen. Genau diese Asym­me­trie hat in anderen Bere­ichen – Kernen­ergie, Chemie, Finanz­mark­t­in­fra­struk­tur – Haf­tungsregime und Ver­sicherungspflicht­en erzwun­gen. Für Mul­ti­a­gen­ten­sys­teme ste­ht dieser Schritt noch aus.

Die eigentliche Frage

Die Bewusst­seins­de­bat­te ist nicht falsch – sie ist falsch verortet. Die entschei­dende Frage lautet nicht: Ver­ste­ht die KI? Sie lautet: Wer hat das Risiko gewählt – und wer trägt die Gefahr?
Jobs träumte davon, Aris­tote­les befra­gen zu kön­nen. Was wir bekom­men haben, ist kom­mu­nika­tiv mächtiger und epis­temisch reich­er als er ahnte. Mit Mul­ti­a­gen­ten­sys­te­men rückt die näch­ste Stufe näher: nicht mehr ein Sys­tem, das wir befra­gen, son­dern viele Sys­teme, die eigen­ständig han­deln. Die Frage nach Bewusst­sein und Ver­ste­hen löst sich dabei nicht auf – sie ver­wan­delt sich in eine insti­tu­tionelle Frage nach Risikobe­w­er­tung, Haf­tungszurech­nung und der gerecht­en Verteilung von Gefahr. Solange diese Trans­for­ma­tion insti­tu­tionell aus­bleibt, ist der Ver­weis auf „funk­tionale Leis­tungs­fähigkeit” keine Antwort. Er ist ihre Verta­gung – auf Kosten der­er, die das Risiko nie gewählt haben.

Ralf Keu­per 


Weit­er­führend: Niklas Luh­mann, „Selb­stre­f­er­en­tielle Sys­teme”, in: Fritz B. Simon (Hg.), Lebende Sys­teme. Wirk­lichkeit­skon­struk­tio­nen in der sys­temis­chen Ther­a­pie. – Ralf Keu­per, Von Ham­mura­bi zu Chat­G­PT: Steve Jobs’ Vision der Wis­sens­mas­chine, Econ­Lit­tera 2026.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert