Institutionell situierter Agent

Regelgebunden, regelintelligent, regelentwerfend

Die vorherrschende Debat­te über KI-Agen­ten operiert impliz­it mit zwei unzure­ichen­den Mod­ellen: dem tech­nis­chen Agen­ten­be­griff — Agent als Soft­ware­mod­ul, das Ziele ver­fol­gt und Werkzeuge nutzt — und dem ökonomis­chen Agen­ten­be­griff — Agent als nutzen­max­imieren­des Indi­vidu­um, das im Auf­trag eines Prin­ci­pals han­delt. Bei­de Mod­elle abstrahieren von der insti­tu­tionellen Ein­bet­tung, die das tat­säch­liche Han­deln kon­sti­tu­tiv prägt.

Der Begriff des insti­tu­tionell situ­ierten Agen­ten greift dage­gen eine sozi­ol­o­gis­che Ein­sicht auf, die von Durkheim über Weber bis Luh­mann reicht: Han­deln ist immer schon vorstruk­turi­ert durch Regeln, Erwartun­gen, Rollen und Legit­i­ma­tion­sor­d­nun­gen, die dem einzel­nen Hand­lungsakt voraus­ge­hen und ihn über­lagern. Ein KI-Agent, der in einem insti­tu­tionellen Kon­text operiert — sei es eine Bank, eine Behörde, ein Unternehmen oder ein reg­uliert­er Markt —, ist nicht primär ein autonomes Zielop­ti­mierungssys­tem, son­dern ein Träger insti­tu­tioneller Funk­tio­nen, dessen Oper­a­tio­nen an insti­tu­tionellen Erwartungsstruk­turen gemessen wer­den.

Das bedeutet konkret: Ein KI-Agent, der in ein­er Bank Kred­i­tentschei­dun­gen vor­bere­it­et, ist nicht deshalb insti­tu­tionell situ­iert, weil er eine API aufruft. Er ist insti­tu­tionell situ­iert, weil seine Oper­a­tio­nen in einen Erwartungszusam­men­hang einge­bet­tet sind, der durch Bankauf­sicht­srecht, interne Gov­er­nance-Struk­turen, Kun­den­ver­hält­nisse und beruf­sethis­che Nor­men kon­sti­tu­iert wird — und weil Abwe­ichun­gen von diesen Erwartun­gen Zurech­nungs­fol­gen haben.


Drei Typen — eine Steigerungslogik

Für die Analyse insti­tu­tionell situ­iert­er Agen­ten ist eine Dre­it­eilung ana­lytisch uner­lässlich. Sie bildet eine Steigerungslogik:

regel­ge­bun­den → regelin­tel­li­gent → rege­len­twer­fend

Diese Unter­schei­dung ist nicht wert­neu­tral — sie hat unmit­tel­bare Legit­im­ität­sim­p­lika­tio­nen.

Der regelgebundene Agent

Der regel­ge­bun­dene Agent ist der Grund­ty­pus. Er operiert inner­halb eines vorgegebe­nen Regel­sys­tems, ohne dessen Gel­tung in Frage zu stellen oder es zu inter­pretieren. Regeln fungieren hier im Sinne von Luh­manns Kon­di­tion­al­pro­gramm: „Wenn X, dann Y.” Die Legit­i­ma­tions­ba­sis ist Kon­for­mität; der Fehler­modus beste­ht in der Rege­lan­wen­dung auch dort, wo die Regel der Sit­u­a­tion inadäquat ist. Der Ermessensspiel­raum ist min­i­mal, die Zurech­nungsstruk­tur fol­gt dem Pro­duk­thaf­tungsmod­ell: Wer den Agen­ten ein­set­zt, haftet für seine Aus­gaben.

Der regelintelligente Agent

Der regelin­tel­li­gente Agent operiert im Bere­ich des Zweck­pro­gramms. Er erken­nt Regelkon­flik­te, pri­or­isiert zwis­chen konkur­ri­eren­den Nor­men und trifft in Gren­zsi­t­u­a­tio­nen Entschei­dun­gen, die — ohne dies insti­tu­tionell sicht­bar zu machen — impliz­it regelverän­dernde Wirkung haben kön­nen. In der Recht­s­the­o­rie entspricht diesem Typus Dworkins Richter in „hard cas­es”, der nicht mehr bloß sub­sum­iert, son­dern zwis­chen konkur­ri­eren­den Prinzip­i­en abwägt. Her­bert Simons „nicht-pro­gram­mierte Entschei­dung” in Organ­i­sa­tio­nen trifft den gle­ichen Kern.

Der regelin­tel­li­gente Agent ist der in der Prax­is am weitesten ver­bre­it­ete und gle­ichzeit­ig insti­tu­tionell am wenig­sten durch­dachte Typus. Sein spez­i­fis­ch­er Fehler­modus ist nicht die Rege­lan­wen­dung, son­dern die Ratio­nal­isierung statt Begrün­dung: Er pro­duziert insti­tu­tionell anschlussfähige Aus­gaben, deren tat­säch­liche Selek­tion­slogik intrans­par­ent bleibt.

Der regelentwerfende Agent

Der rege­len­twer­fende Agent behan­delt die Regel­struk­tur selb­st als Objekt sein­er Oper­a­tion. Er gestal­tet, verän­dert oder erzeugt Regeln — sei es durch Pol­i­cy-Entwürfe, Ver­trags­gestal­tung oder algo­rith­mis­ches Scor­ing-Design. Hier ist die Legit­i­ma­tions­frage am schärf­sten: Dieser Typus erfordert demokratisch oder organ­i­sa­tion­al abgesicherte Ermäch­ti­gung, die in aktuellen Deploy­ments regelmäßig fehlt oder nicht expliz­it gemacht wird.


Das Drift-Risiko: Wenn Typen sich verschieben

Ein beson­ders rel­e­vantes Gov­er­nance-Prob­lem ist das insti­tu­tionelle Drift-Risiko: die Möglichkeit, dass ein Agent, der ursprünglich als regel­ge­bun­den konzip­iert wurde, durch Lern­prozesse, schle­ichende Ein­satzer­weiterung oder Deploy­ment-Entschei­dun­gen fak­tisch in den regelin­tel­li­gen­ten oder rege­len­twer­fend­en Bere­ich driftet — ohne dass dies insti­tu­tionell adressiert wird.

Solche Drift-Prozesse sind insti­tu­tio­nengeschichtlich nicht neu. Behör­den, die als aus­führende Organe gegrün­det wur­den, entwick­eln über Zeit fak­tisch norm­set­zende Tätigkeit. Gerichte, die Recht anwen­den sollen, schaf­fen über Präze­den­zentschei­dun­gen neues Recht. Tech­nis­che Stan­dards, die als rein deskrip­tiv gedacht waren, wer­den zu fak­tisch verbindlichen Nor­men. Der Unter­schied beim KI-Agen­ten liegt in der Geschwindigkeit des Drifts und in der Unsicht­barkeit des Über­gangs: Die insti­tu­tionellen Beobachter, die einen solchen Drift nor­maler­weise bemerken und the­ma­tisieren wür­den, sind bei KI-Sys­te­men oft nicht in der Lage, ihn zu iden­ti­fizieren.


Systematik

Die drei Typen lassen sich ent­lang mehrerer ana­lytis­ch­er Dimen­sio­nen gegenüber­stellen:

Dimen­sion regel­ge­bun­den regelin­tel­li­gent rege­len­twer­fend
Ver­hält­nis zu Regeln Anwen­dung Ausle­gung Gestal­tung
Luh­mann-Ref­erenz Kon­di­tion­al­pro­gramm Zweck­pro­gramm Struk­turen­twurf
Legit­i­ma­tions­ba­sis Kon­for­mität Begrün­dung Ver­fahren
Ermessensspiel­raum min­i­mal mod­er­at max­i­mal
Fehler­modus Rege­lan­wen­dung bei inadäquater Regel Ratio­nal­isierung statt Begrün­dung Sys­temis­ch­er Norm­set­zungs­fehler
Zurech­nungsstruk­tur Pro­duk­thaf­tungsmod­ell Inter­pre­ta­tionsver­ant­wor­tung Insti­tu­tionelle Ermäch­ti­gung
Drift-Risiko ger­ing mit­tel hoch
Typ­is­che Kon­texte Com­pli­ance, stan­dar­d­isierte Abwick­lung Juris­tis­che Bew­er­tung, Risiko­analyse Pol­i­cy-Entwurf, algo­rith­mis­ches Scor­ing

Governance-Implikation

Das Konzept des insti­tu­tionell situ­ierten Agen­ten richtet sich gegen zwei ver­bre­it­ete Fehldeu­tun­gen: die rein tech­nis­che Betra­ch­tung des Agen­ten als autonomes Opti­mierungssys­tem ein­er­seits und die naive Gov­er­nance-Rhetorik von „Kon­trolle durch Design” ander­er­seits. Stattdessen fragt es: In welche insti­tu­tionellen Struk­turen muss ein Agent eingepasst sein, damit seine Entschei­dun­gen im Luh­mannschen Sinne als anschlussfähig gel­ten — also von der Organ­i­sa­tion als legit­im behan­delt wer­den kön­nen?

Für den regel­ge­bun­de­nen Agen­ten sind Äquiv­a­lente zu suchen in den Ver­fahren der tech­nis­chen Qual­itätssicherung: Prüf­pro­tokolle, Kon­for­mität­snach­weise, klare Haf­tungszuord­nung. Für den regelin­tel­li­gen­ten Agen­ten wären Äquiv­a­lente zu suchen in den Ver­fahren der juris­tis­chen Qual­itätssicherung: doku­men­tierte Begrün­dungspflicht­en, insti­tu­tion­al­isierte Wider­spruchsmöglichkeit­en, Peer-Review von Ausle­gungsentschei­dun­gen. Für den rege­len­twer­fend­en Agen­ten wären Äquiv­a­lente zu suchen in den Ver­fahren der demokratis­chen Rechts­set­zung: Beteili­gungsver­fahren, Sun­set-Klauseln, oblig­a­torische Ex-post-Evaluierung.

Diese Äquiv­a­lente sind keine bloßen Analo­gien. Sie greifen auf insti­tu­tionelle Weisheit­en zurück, die sich in lan­gen Prozessen sozialer Erprobung her­aus­ge­bildet haben — und die für den Bere­ich der KI-Gov­er­nance neu kon­fig­uri­ert wer­den müssen, ohne ihre kon­sti­tu­tive Logik preiszugeben.

Ralf Keu­per