Die Debat­te um die soge­nan­nte „SaaSpoca­lypse” – die These, dass KI-Agen­ten klas­sis­che SaaS-Anwen­dun­gen obso­let machen wer­den – hat einen inter­es­san­ten Test­fall her­vorge­bracht: Intu­it, der amerikanis­che Anbi­eter von Quick­Books und Tur­b­o­Tax, set­zt der Bedro­hung durch gen­er­a­tive KI eine ungewöhn­liche Vertei­di­gungsstrate­gie ent­ge­gen. Nicht tech­nol­o­gis­che Über­legen­heit, son­dern insti­tu­tionelle Tiefe soll den Moat sich­ern: 40 Jahre Finanz­dat­en, bis zu 400.000 Attribute pro Klei­n­un­ternehmen, ein de-fac­to-Betrieb­ssys­tem für das amerikanis­che KMU-Rech­nungswe­sen.

Das klingt nach klas­sis­ch­er Plat­tform­strate­gie. Tat­säch­lich berührt es etwas Tief­eres – näm­lich die Frage, was einen Agen­ten insti­tu­tionell situ­iert macht.


Rege­len­twer­fend statt regelin­tel­li­gent

In der aktuellen KI-Agen­ten-Debat­te dominiert ein funk­tion­al­is­tis­ches Bild: Ein Agent ist ein Sys­tem, das Ziele ver­fol­gt, Werkzeuge ein­set­zt und Entschei­dun­gen trifft. Was dabei unter­be­lichtet bleibt, ist die Frage nach dem Kon­text, in dem diese Entschei­dun­gen über­haupt Gel­tung erlan­gen. Niklas Luh­manns Entschei­dungs­be­griff ist hier instruk­tiv: Entschei­dun­gen sind nicht bloß Selek­tio­nen, son­dern Kom­mu­nika­tio­nen, die Fol­geer­wartun­gen erzeu­gen und in sozialen Sys­te­men anschlussfähig sein müssen.

Ein regelin­tel­li­gen­ter Agent opti­miert inner­halb gegeben­er Regeln. Ein rege­len­twer­fend­er Agent hinge­gen kon­sti­tu­iert die Regeln selb­st – er definiert, was als rel­e­vante Transak­tion gilt, wie Kat­e­gorien gebildet wer­den, welche Aus­nah­men sys­temisch ver­ar­beit­bar sind. Intu­it betreibt seit vier Jahrzehn­ten genau das: Die Kat­e­gorisierung von Geschäftsvor­fällen, die Inter­pre­ta­tion steuer­lich­er Anforderun­gen, die Normierung von Cash­flow-Mustern. Quick­Books ist kein neu­trales Werkzeug – es ist ein insti­tu­tioneller Rah­men, der vorschreibt, wie ein Klei­n­un­ternehmen seine wirtschaftliche Real­ität repräsen­tiert.

Diese rege­len­twer­fende Dimen­sion ist es, die gener­ische KI-Tools bish­er nicht replizieren kön­nen. Chat­G­PT kann eine Bilanz lesen. Es kann nicht entschei­den, ob eine Aus­gabe in ein­er Branche mit spez­i­fis­chen Abschrei­bungsregeln, regionalen Steuerpflicht­en und his­torischen Buchungsmustern regelkon­form kat­e­gorisiert wurde. Intu­it kann das – weil es selb­st an der Entste­hung dieser Regeln beteiligt war.

Daten­macht als Legit­i­ma­tions­ba­sis

Hier liegt das eigentliche strate­gis­che Argu­ment: Intu­its Daten­ba­sis ist nicht nur ein Train­ingsvorteil, son­dern eine Legit­i­ma­tion­sres­source. Das Unternehmen kann gegenüber Behör­den, Wirtschaft­sprüfern und Finanzin­sti­tu­tio­nen glaub­haft machen, dass seine Klas­si­fika­tio­nen ver­lässlich sind – weil sie auf einem repräsen­ta­tiv­en, lan­gen und reg­u­la­torisch erprobten Daten­fun­da­ment beruhen.

Für KI-Agen­ten im Finanzbere­ich ist Legit­i­ma­tion keine Rand­größe. Ein Agent, der autonom Steuer­erk­lärun­gen vor­bere­it­et, Kred­i­tanträge ini­ti­iert oder Zahlungsströme steuert, agiert in einem dicht reg­ulierten Raum. Er benötigt nicht nur tech­nis­che Kor­rek­theit, son­dern insti­tu­tionelle Anerken­nung: Wer bürgt für seine Aus­gaben? Wer haftet bei Fehlern? Wessen Klas­si­fika­tion­ssys­tem ist Grund­lage sein­er Entschei­dun­gen?

Intu­it hat auf diese Fra­gen impliz­it eine Antwort: Das Unternehmen selb­st. Seine Sys­teme sind in die reg­u­la­torische Infra­struk­tur einge­bet­tet, mit dem IRS v…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert