Regelgebunden, regelintelligent, regelentwerfend
Die vorherrschende Debatte über KI-Agenten operiert implizit mit zwei unzureichenden Modellen: dem technischen Agentenbegriff — Agent als Softwaremodul, das Ziele verfolgt und Werkzeuge nutzt — und dem ökonomischen Agentenbegriff — Agent als nutzenmaximierendes Individuum, das im Auftrag eines Principals handelt. Beide Modelle abstrahieren von der institutionellen Einbettung, die das tatsächliche Handeln konstitutiv prägt.
Der Begriff des institutionell situierten Agenten greift dagegen eine soziologische Einsicht auf, die von Durkheim über Weber bis Luhmann reicht: Handeln ist immer schon vorstrukturiert durch Regeln, Erwartungen, Rollen und Legitimationsordnungen, die dem einzelnen Handlungsakt vorausgehen und ihn überlagern. Ein KI-Agent, der in einem institutionellen Kontext operiert — sei es eine Bank, eine Behörde, ein Unternehmen oder ein regulierter Markt —, ist nicht primär ein autonomes Zieloptimierungssystem, sondern ein Träger institutioneller Funktionen, dessen Operationen an institutionellen Erwartungsstrukturen gemessen werden.
Das bedeutet konkret: Ein KI-Agent, der in einer Bank Kreditentscheidungen vorbereitet, ist nicht deshalb institutionell situiert, weil er eine API aufruft. Er ist institutionell situiert, weil seine Operationen in einen Erwartungszusammenhang eingebettet sind, der durch Bankaufsichtsrecht, interne Governance-Strukturen, Kundenverhältnisse und berufsethische Normen konstituiert wird — und weil Abweichungen von diesen Erwartungen Zurechnungsfolgen haben.
Drei Typen — eine Steigerungslogik
Für die Analyse institutionell situierter Agenten ist eine Dreiteilung analytisch unerlässlich. Sie bildet eine Steigerungslogik:
regelgebunden → regelintelligent → regelentwerfend
Diese Unterscheidung ist nicht wertneutral — sie hat unmittelbare Legitimitätsimplikationen.
Der regelgebundene Agent
Der regelgebundene Agent ist der Grundtypus. Er operiert innerhalb eines vorgegebenen Regelsystems, ohne dessen Geltung in Frage zu stellen oder es zu interpretieren. Regeln fungieren hier im Sinne von Luhmanns Konditionalprogramm: „Wenn X, dann Y.” Die Legitimationsbasis ist Konformität; der Fehlermodus besteht in der Regelanwendung auch dort, wo die Regel der Situation inadäquat ist. Der Ermessensspielraum ist minimal, die Zurechnungsstruktur folgt dem Produkthaftungsmodell: Wer den Agenten einsetzt, haftet für seine Ausgaben.
Der regelintelligente Agent
Der regelintelligente Agent operiert im Bereich des Zweckprogramms. Er erkennt Regelkonflikte, priorisiert zwischen konkurrierenden Normen und trifft in Grenzsituationen Entscheidungen, die — ohne dies institutionell sichtbar zu machen — implizit regelverändernde Wirkung haben können. In der Rechtstheorie entspricht diesem Typus Dworkins Richter in „hard cases”, der nicht mehr bloß subsumiert, sondern zwischen konkurrierenden Prinzipien abwägt. Herbert Simons „nicht-programmierte Entscheidung” in Organisationen trifft den gleichen Kern.
Der regelintelligente Agent ist der in der Praxis am weitesten verbreitete und gleichzeitig institutionell am wenigsten durchdachte Typus. Sein spezifischer Fehlermodus ist nicht die Regelanwendung, sondern die Rationalisierung statt Begründung: Er produziert institutionell anschlussfähige Ausgaben, deren tatsächliche Selektionslogik intransparent bleibt.
Der regelentwerfende Agent
Der regelentwerfende Agent behandelt die Regelstruktur selbst als Objekt seiner Operation. Er gestaltet, verändert oder erzeugt Regeln — sei es durch Policy-Entwürfe, Vertragsgestaltung oder algorithmisches Scoring-Design. Hier ist die Legitimationsfrage am schärfsten: Dieser Typus erfordert demokratisch oder organisational abgesicherte Ermächtigung, die in aktuellen Deployments regelmäßig fehlt oder nicht explizit gemacht wird.
Das Drift-Risiko: Wenn Typen sich verschieben
Ein besonders relevantes Governance-Problem ist das institutionelle Drift-Risiko: die Möglichkeit, dass ein Agent, der ursprünglich als regelgebunden konzipiert wurde, durch Lernprozesse, schleichende Einsatzerweiterung oder Deployment-Entscheidungen faktisch in den regelintelligenten oder regelentwerfenden Bereich driftet — ohne dass dies institutionell adressiert wird.
Solche Drift-Prozesse sind institutionengeschichtlich nicht neu. Behörden, die als ausführende Organe gegründet wurden, entwickeln über Zeit faktisch normsetzende Tätigkeit. Gerichte, die Recht anwenden sollen, schaffen über Präzedenzentscheidungen neues Recht. Technische Standards, die als rein deskriptiv gedacht waren, werden zu faktisch verbindlichen Normen. Der Unterschied beim KI-Agenten liegt in der Geschwindigkeit des Drifts und in der Unsichtbarkeit des Übergangs: Die institutionellen Beobachter, die einen solchen Drift normalerweise bemerken und thematisieren würden, sind bei KI-Systemen oft nicht in der Lage, ihn zu identifizieren.
Systematik
Die drei Typen lassen sich entlang mehrerer analytischer Dimensionen gegenüberstellen:
| Dimension | regelgebunden | regelintelligent | regelentwerfend |
|---|---|---|---|
| Verhältnis zu Regeln | Anwendung | Auslegung | Gestaltung |
| Luhmann-Referenz | Konditionalprogramm | Zweckprogramm | Strukturentwurf |
| Legitimationsbasis | Konformität | Begründung | Verfahren |
| Ermessensspielraum | minimal | moderat | maximal |
| Fehlermodus | Regelanwendung bei inadäquater Regel | Rationalisierung statt Begründung | Systemischer Normsetzungsfehler |
| Zurechnungsstruktur | Produkthaftungsmodell | Interpretationsverantwortung | Institutionelle Ermächtigung |
| Drift-Risiko | gering | mittel | hoch |
| Typische Kontexte | Compliance, standardisierte Abwicklung | Juristische Bewertung, Risikoanalyse | Policy-Entwurf, algorithmisches Scoring |
Governance-Implikation
Das Konzept des institutionell situierten Agenten richtet sich gegen zwei verbreitete Fehldeutungen: die rein technische Betrachtung des Agenten als autonomes Optimierungssystem einerseits und die naive Governance-Rhetorik von „Kontrolle durch Design” andererseits. Stattdessen fragt es: In welche institutionellen Strukturen muss ein Agent eingepasst sein, damit seine Entscheidungen im Luhmannschen Sinne als anschlussfähig gelten — also von der Organisation als legitim behandelt werden können?
Für den regelgebundenen Agenten sind Äquivalente zu suchen in den Verfahren der technischen Qualitätssicherung: Prüfprotokolle, Konformitätsnachweise, klare Haftungszuordnung. Für den regelintelligenten Agenten wären Äquivalente zu suchen in den Verfahren der juristischen Qualitätssicherung: dokumentierte Begründungspflichten, institutionalisierte Widerspruchsmöglichkeiten, Peer-Review von Auslegungsentscheidungen. Für den regelentwerfenden Agenten wären Äquivalente zu suchen in den Verfahren der demokratischen Rechtssetzung: Beteiligungsverfahren, Sunset-Klauseln, obligatorische Ex-post-Evaluierung.
Diese Äquivalente sind keine bloßen Analogien. Sie greifen auf institutionelle Weisheiten zurück, die sich in langen Prozessen sozialer Erprobung herausgebildet haben — und die für den Bereich der KI-Governance neu konfiguriert werden müssen, ohne ihre konstitutive Logik preiszugeben.
Ralf Keuper
