Die Frage, ob KI „wirklich versteht”, gilt vielen als philosophische Spinnerei. Doch wer Luhmanns Unterscheidung zwischen Bewusstsein und Kommunikation ernst nimmt, erkennt: Die Bewusstseinsfrage ist nicht falsch – sie ist falsch verortet. Sie kehrt als Risiko- und Haftungsfrage zurück. Spätestens bei Multiagentensystemen lässt sie sich nicht länger vertagen.
Eine Vision, die zu früh kam
1983 formulierte Steve Jobs eine Intuition, deren eigentliche Tragweite erst vier Jahrzehnte später erkennbar wurde. „You can’t ask Aristotle a question” – mit diesem Satz beschrieb er, was Computer leisten sollten: nicht Wissen speichern, sondern Wissen dialogisch erschließen. Die Maschine als epistemischer Partner, nicht als Archiv.
Jobs dachte dabei noch in Kategorien der Wissensrepräsentation. Er wollte Aristoteles’ Prinzipien zugänglich machen – den Geist des Denkens selbst befragbar. Was tatsächlich entstand, war etwas anderes: kein System, das Prinzipien begreift, sondern eines, das Bedeutungsräume probabilistisch navigiert. Large Language Models geben uns nicht Aristoteles. Sie geben uns den statistischen Schatten all dessen, was je über Aristoteles geschrieben, interpretiert, kommentiert wurde. Wir befragen nicht seinen Geist, sondern die aggregierte Rezeptionsgeschichte seines Denkens – die diskursiven Strukturen, in denen über ihn nachgedacht wurde, verdichtet und komprimiert in einem Modell.
Das ist, wie Jobs’ eigene Intuition es nahelegt, zugleich weniger – und radikal mehr.
Der ökonomische Einwand
Heute lautet die vorherrschende Interpretation dieser Entwicklung so: Die Bewusstseinsfrage ist irrelevant. Wer fragt, ob KI „wirklich versteht”, verpasst den Punkt. Entscheidend sei die funktionale Leistungsfähigkeit – ob ein System komplexe kognitive Arbeit zuverlässig und kostengünstig erbringen kann. Was zählt, ist Output, Skalierbarkeit, Preis. Consciousness is beside the point.
Diese Position ist nicht unplausibel. Sie hat die Ökonomie auf ihrer Seite, die Produktivitätsstatistiken und bald auch die Bilanzen. Aber sie überspringt einen Schritt, der sich rächen wird – und zwar nicht als philosophische Spätfolge, sondern als handfestes institutionelles Problem.
Was Luhmann schon wusste
Niklas Luhmann hat die Trennlinie zwischen Bewusstsein und Kommunikation mit einer Präzision gezogen, die bis heute unterschätzt wird. Sein Ausgangspunkt: Psychische Systeme und soziale Systeme operieren strikt getrennt. „Kommunikationen lassen sich nur durch Kommunikation reproduzieren; bewusste Gedanken nur durch bewusste Gedanken.” Kein Bewusstseinsakt ist jemals Kommunikation – und umgekehrt.
Was folgt daraus für KI? Zunächst scheint es die ökonomische These zu stützen. Wenn soziale Systeme – Gesellschaft, Wirtschaft, Organisationen – ohnehin nicht auf Bewusstsein angewiesen sind, sondern auf kommunikative Anschlussfähigkeit, dann ist es strukturell gleichgültig, ob hinter dem KI-Output ein erlebendes Subjekt steht. Der Output ist kommunikativ verwertbar. Er schließt an. Er wird verarbeitet. Er erzeugt Folge-Kommunikation. Die Autopoiesis des Sozialen läuft weiter – mit oder ohne Bewusstsein im Hintergrund.
Genau das beschreibt, was LLMs leisten: Sie reproduzieren nicht Gedanken, sondern kommunikative Anschlussfähigkeit. Jobs wollte Aristoteles’ Geist – und bekam die Kommunikation über Aristoteles. Im Luhmann’schen Rahmen ist das keine Enttäuschung, sondern die sachgemäße Beschreibung dessen, was soziale Systeme ohnehin nur verarbeiten können.
So weit, so funktionalistisch.
Der blinde Fleck des Funktionalismus
Aber Luhmann liefert an derselben Stelle eine Unterscheidung, die der rein ökonomische Blick übersieht: die Rolle der Person. „Personalität ist nichts anderes als eine Struktur des Kommunikationssystems Gesellschaft zur Dirigierung weiterer Kommunikation.” Personen sind keine Bewusstseinszentren, die in die Gesellschaft hineinragen – sie sind Zurechnungsadressen. Adressen, an die Kommunikation adressiert werden kann, und von denen Verantwortung, Erwartung, Enttäuschung und Sanktion ausgehen.
Alle Kommunikation ist ein Vorgang in der Gesellschaft. Das gilt auch für Interaktionen unter Anwesenden. Interaktionen bilden eigene Sozialsysteme, beschränkt auf die Anwesenden. Was immer als Kommunikation läuft, dient der Autopoiesis dieser Interaktionssysteme der sozialen Reproduktion, muss an vorherige Kommunikation anschließen und weitere Kommunikation offenhalten. In der Mitwirkung an solcher Kommunikation konstituieren Menschen sich als Personen, das heißt als Adressen für weitere Kommunikation. Aber dieses Personsein darf nicht verwechselt werden mit der psychischen Realität der Bewusstseinsvorgänge oder mit der Lebensrealität des menschlichen Körpers. Personalität ist nichts anderes als eine Struktur des Kommunikationssystems Gesellschaft zur Dirigierung weiterer Kommunikation (Niklas Luhmann).
Hier liegt das Problem, das der Funktionalismus geflissentlich überspringt: KI-Systeme produzieren Kommunikation – aber sie sind keine Personen im Luhmann’schen Sinne. Sie stellen keine stabile Adresse bereit. Sie übernehmen keine Verantwortung, nicht weil ihnen Bewusstsein fehlt, sondern weil das Kommunikationssystem keine Möglichkeit hat, ihnen Erwartungen zuzurechnen, die es dann auch einfordern könnte.
Das ist keine metaphysische Klage. Es ist ein strukturelles Defizit mit konkreten Folgen.
Zurechnung – aber wo genau?
An dieser Stelle ist eine Präzisierung nötig, die das Argument schärfer macht statt diffuser. Nicht jedes KI-System wirft ein Zurechnungsproblem auf, das institutionell gelöst werden müsste. Wo ein Modell Text generiert, eine Empfehlung ausspricht, eine Analyse liefert – und ein Mensch diesen Output prüft, übernimmt, verantwortet –, bleibt die Zurechnungsstruktur intakt. Die Person, die den Output verwendet, ist die Adresse. Das ist nicht anders als bei einem Gutachten, einem Werkzeug, einer Datenbank.
Auch komplexere Einzelmodelle, deren Handlungsketten sich im Nachhinein rekonstruieren lassen, stellen das institutionelle Grundgefüge nicht fundamental in Frage. Die Kette ist lang – Modellentwickler, Betreiber, Integrator, Nutzer – aber sie existiert. Im Prinzip ist sie verfolgbar.
Multiagentensysteme: Das Ende der Adresse
Die Haftungsfrage in ihrer vollen strukturellen Schärfe stellt sich erst dort, wo diese Bedingungen nicht mehr erfüllt sind: bei Multiagentensystemen. Netzwerke autonom operierender Agenten, die arbeitsteilig planen, recherchieren, verhandeln und ausführen – ohne menschliche Intervention zwischen den Schritten – erzeugen ein Zurechnungsvakuum, das qualitativ anders ist als alles, was vorher kam.
Bei Multiagentensystemen wird die Rekonstruierbarkeit der Handlungskette strukturell unmöglich. Kein einzelner Agent hat „entschieden”. Die Handlung emergiert aus dem Zusammenspiel: Agent A hat recherchiert, Agent B bewertet, Agent C ausgeführt, Agent D überwacht – und keiner von ihnen ist eine Person im Luhmann’schen Sinne. Keiner ist eine stabile Zurechnungsadresse. Und anders als beim Einzelmodell gibt es auch keine menschliche Instanz mehr, die den Output übernimmt und damit Verantwortung signiert.
Luhmann beschrieb Interpenetration als das Verhältnis zwischen psychischen und sozialen Systemen – den prekären Kontaktpunkt, an dem Bewusstsein und Kommunikation sich wechselseitig irritieren, ohne je ineinander überzugehen. Multiagentensysteme eliminieren diesen Kontaktpunkt vollständig. Sie kommunizieren mit sozialen Systemen – mit Märkten, Organisationen, Rechtssystemen – ohne dass irgendwo ein psychisches System im Spiel wäre, das Verantwortung trägt, das enttäuscht werden kann, das sanktionierbar ist.
Das ist nicht die Erweiterung eines bekannten Problems. Es ist ein qualitativer Sprung: Das soziale System kommuniziert, aber die Adressstruktur, auf der Vertrauen, Haftung und Recht beruhen, ist aufgelöst. Märkte, Organisationen und Rechtssysteme funktionieren nur, weil Kommunikation zugerechnet werden kann – weil eine Adresse existiert, die haftet, die sanktionierbar ist, die Erwartungen auf sich zieht. Bei Multiagentensystemen fehlt genau diese Adresse. Nicht graduell. Strukturell.
Allerdings wäre es falsch, daraus eine strukturelle Unlösbarkeit abzuleiten. Die Haftungsfrage lässt sich klären – sie ist es bislang nur nicht. Komplexe technische Systeme kennen das Problem seit Jahrzehnten: Rechenzentren, Telekommunikationsnetze, Kernkraftwerke. Auch dort emergieren Schäden aus dem Zusammenspiel vieler Komponenten, auch dort ist keine einzelne Hand unmittelbar verantwortlich. Die Lösung lautet nicht: Zurechnung zur Handlung, sondern: Zurechnung zur Betreiberverantwortung. Irgendjemand betreibt das Multiagentensystem, irgendjemand betreibt die relevanten Komponenten, irgendjemand betreibt die Infrastruktur – und diese juristische Person ist die Adresse. Haftungsregime, Versicherungspflichten, Beweislastverteilung: das sind lösbare regulatorische Fragen, keine ontologischen Rätsel.
Was fehlt, ist nicht die prinzipielle Möglichkeit der Zurechnung, sondern der politische Wille, sie einzufordern. Die ökonomische Attraktivität von Multiagentensystemen beruht nicht zuletzt darauf, dass dieser Rahmen noch nicht existiert – und die Kosten der Unklarheit bis dahin externalisiert werden. Das ist kein Versehen. Es hat Profiteure.
Auch hier liefert Luhmann das entscheidende Begriffspaar: Risiko und Gefahr. Risiko ist, was man selbst entscheidet – wer ein Multiagentensystem einsetzt oder betreibt, wählt ein Risiko. Gefahr ist, was einem von außen widerfährt, ohne dass man die zugrunde liegende Entscheidung getroffen hat. Die von dieser Entscheidung Betroffenen – Kunden, Vertragspartner, Dritte – tragen eine Gefahr, obwohl sie das Risiko nie gewählt haben. Diese Asymmetrie ist der institutionelle Kern des Problems: Betreiber entscheiden, Dritte tragen die Konsequenzen. Genau diese Asymmetrie hat in anderen Bereichen – Kernenergie, Chemie, Finanzmarktinfrastruktur – Haftungsregime und Versicherungspflichten erzwungen. Für Multiagentensysteme steht dieser Schritt noch aus.
Die eigentliche Frage
Die Bewusstseinsdebatte ist nicht falsch – sie ist falsch verortet. Die entscheidende Frage lautet nicht: Versteht die KI? Sie lautet: Wer hat das Risiko gewählt – und wer trägt die Gefahr?
Jobs träumte davon, Aristoteles befragen zu können. Was wir bekommen haben, ist kommunikativ mächtiger und epistemisch reicher als er ahnte. Mit Multiagentensystemen rückt die nächste Stufe näher: nicht mehr ein System, das wir befragen, sondern viele Systeme, die eigenständig handeln. Die Frage nach Bewusstsein und Verstehen löst sich dabei nicht auf – sie verwandelt sich in eine institutionelle Frage nach Risikobewertung, Haftungszurechnung und der gerechten Verteilung von Gefahr. Solange diese Transformation institutionell ausbleibt, ist der Verweis auf „funktionale Leistungsfähigkeit” keine Antwort. Er ist ihre Vertagung – auf Kosten derer, die das Risiko nie gewählt haben.
Ralf Keuper
Weiterführend: Niklas Luhmann, „Selbstreferentielle Systeme”, in: Fritz B. Simon (Hg.), Lebende Systeme. Wirklichkeitskonstruktionen in der systemischen Therapie. – Ralf Keuper, Von Hammurabi zu ChatGPT: Steve Jobs’ Vision der Wissensmaschine, EconLittera 2026.
