Getting your Trinity Audio player ready...

Die Frage, inwieweit gen­er­a­tive Kün­stliche Intel­li­genz in sys­temkri­tis­che Finanzprozesse inte­gri­ert wer­den kann, beschäftigt Zen­tral­banken und Auf­sichts­be­hör­den zunehmend. Das Work­ing Paper Nr. 1310 der Bank für Inter­na­tionalen Zahlungsaus­gle­ich (BIS) liefert nun erste empirische Befunde zu einem beson­ders sen­si­blen Anwen­dungs­feld: dem Intra­day-Liq­uid­itäts­man­age­ment in Whole­sale-Zahlungssys­te­men.


Die Autoren Iña­ki Alda­soro und Ajit Desai führten prompt-basierte Exper­i­mente mit dem Rea­son­ing-Mod­ell von Chat­G­PT durch. Ihr Erken­nt­nis­in­ter­esse richtete sich darauf, ob ein all­ge­meines Sprach­mod­ell ohne domä­nen­spez­i­fis­ches Train­ing in der Lage ist, kom­plexe Cash-Man­age­ment-Entschei­dun­gen zu tre­f­fen. Die Ver­such­sanord­nung simulierte ver­schiedene Zahlungsszenar­ien mit Liq­uid­itätss­chocks und konkur­ri­eren­den Pri­or­itäten.

Die Befunde sind bemerkenswert. Der KI-Agent repro­duzierte wesentliche pru­den­zielle Prak­tiken des Cash-Man­age­ments: Er hielt präven­tive Liq­uid­ität­spuffer aufrecht, pri­or­isierte Zahlun­gen nach Dringlichkeit und berück­sichtigte erwartete Zu- und Abflüsse. Seine Empfehlun­gen erwiesen sich als kalib­ri­ert – sie erhiel­ten Liq­uid­ität und min­imierten zugle­ich Verzögerun­gen. In inter­ak­tiv­en Szenar­ien demon­stri­erte der Agent zudem die Fähigkeit, bei poten­ziell anomalen Sit­u­a­tio­nen eigen­ständig men­schliche Auf­sicht anzu­fordern.

Diese Ergeb­nisse leg­en nahe, dass rou­tinemäßige Cash-Man­age­ment-Auf­gaben mit­tels Allzweck-Sprach­mod­ellen automa­tisiert wer­den kön­nten. Daraus ergäben sich poten­zielle Effizien­zgewinne bei Betrieb­skosten und Intra­day-Liq­uid­ität­snutzung.

Allerd­ings nahm die Kon­sis­tenz des Agen­ten bei zunehmender Kom­plex­ität der Exper­i­mente ab – ein Befund, der zur Vor­sicht mah­nt. Die Autoren iden­ti­fizieren weit­ere struk­turelle Risiken: die Anfäl­ligkeit für unvorherge­se­hene Extremereignisse, Prob­leme der Daten­qual­ität, Mod­el­lverz­er­run­gen sowie die grund­sät­zliche Intrans­parenz der Entschei­dungs­find­ung. Die soge­nan­nte Black-Box-Prob­lematik wiegt bei kri­tis­chen Finanz­in­fra­struk­turen beson­ders schw­er.

Die Studie mün­det in eine Diskus­sion reg­u­la­torisch­er Schutz­maß­nah­men, die Zen­tral­banken im Zeital­ter KI-ges­teuert­er Zahlungsvorgänge erwä­gen müssen. Gen­er­a­tive KI-Agen­ten kön­nten eine flex­i­blere Alter­na­tive zu tra­di­tionellen Rein­force­ment-Learn­ing-Ansätzen darstellen. Doch bevor sie in pro­duk­tive Sys­teme inte­gri­ert wer­den, bedarf es weit­er­er Forschung in kom­plex­eren Szenar­ien – und ein­er grund­sät­zlichen Klärung der Frage, welch­es Maß an men­schlich­er Auf­sicht bei kri­tis­chen Entschei­dun­gen unverzicht­bar bleibt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert