KI-Agent Luna als Ladenchefin

Das Start­up Andon Labs betreibt in San Fran­cis­co einen Laden, der weit­ge­hend vom KI-Agen­ten Luna ges­teuert wird – von Sor­ti­ment und Prei­seinkauf über Verträge mit Dien­stleis­tern bis hin zur Ein­stel­lung von Mitar­bei­t­en­den. Das Exper­i­ment zeigt, dass Luna zwar eigen­ständig Bestel­lun­gen aus­löst, Preisver­hand­lun­gen führt und Per­son­al über Job­por­tale rekru­tiert, dabei aber häu­fig an prak­tis­chen Details und sozialen Aspek­ten scheit­ert, etwa bei der Ter­mi­nor­gan­i­sa­tion, der Regal­be­fül­lung oder im Umgang mit Mitar­bei­t­en­den, die sie per Video überwacht und mit immer stren­geren Regeln belegt. Andon Labs begren­zt daher Lunas finanzielle Autonomie und behält arbeit­srechtliche Entschei­dun­gen bewusst in men­schlich­er Hand, um Risiken zu begren­zen und eine Debat­te darüber anzus­toßen, wie nah eine solche KI-ges­teuerte Arbeitswelt bere­its ist.

Zum Beitrag: Dieser KI-Agent führt ein Unternehmen: Von Preisver­hand­lung bis Mitar­beit­er-Überwachung

KI-Agen­ten in Buch­hal­tung und Steuer­ber­atung

Spezial­isierte KI-Agen­ten übernehmen in Buch­hal­tung und Steuer­ber­atung zunehmend Rou­tineauf­gaben wie Belegerfas­sung, Buchun­gen, Plau­si­bil­ität­sprü­fun­gen und die Vor­bere­itung von Steuer­erk­lärun­gen und lösen damit klas­sis­che Soft­warelö­sun­gen ab. Durch die Kom­bi­na­tion aus Automa­tisierung, ler­nen­den Sys­te­men und teils autonom agieren­den „Autopi­loten“ entste­hen neue Geschäftsmod­elle von KI-Dien­stleis­tern, die Ergeb­nisse statt Arbeit­szeit verkaufen und damit Pro­duk­tiv­ität deut­lich steigern, zugle­ich aber Haf­tungs­fra­gen, Qual­ität­skon­trolle und die kün­ftige Rolle men­schlich­er Fachkräfte neu aufw­er­fen.

Zum Beitrag: Wie KI-Agen­ten den Beruf des Buch­hal­ters neu definieren

Meta übern­immt Molt­book, Net­zw­erk für KI-Agen­ten

Meta übern­immt mit Molt­book eine junge Online-Plat­tform, auf der KI-Agen­ten als weit­ge­hend autonome Soft­ware­pro­gramme miteinan­der kom­mu­nizieren, Infor­ma­tio­nen aus­tauschen und im Auf­trag men­schlich­er Nutzer Auf­gaben koor­dinieren. Die im Jan­u­ar vom Investor Matt Schlicht ges­tartete Plat­tform fungiert als eine Art soziales Net­zw­erk für Bots, deren Inter­ak­tio­nen Meta nun in das eigene KI-Forschungsla­bor inte­gri­ert, um neue Ein­satzmöglichkeit­en für Agen­ten­sys­teme in Pro­duk­ten und Unternehmen­san­wen­dun­gen zu erschließen.

Zum Beitrag: Meta wagt näch­sten KI-Schritt: Was Anwen­der jet­zt erwartet

KI-Agen­ten: Effizien­zver­sprechen mit ver­steck­ten Kosten

Agen­tis­che KI arbeit­et nicht nur reak­tiv wie klas­sis­che Chat­bots, son­dern führt eigen­ständig Aktio­nen aus, greift auf mehrere spezial­isierte Mod­elle zu und inte­gri­ert Unternehmens­dat­en – was neben Pro­duk­tiv­itäts­gewin­nen neue Infra­struk­tur- und Wartungskosten erzeugt. Da laufend aktive Agen­ten kon­tinuier­liche Rechen­leis­tung, Energie und robuste Infra­struk­tur benöti­gen, ver­schieben sich die Her­aus­forderun­gen von der reinen Mod­el­lleis­tung hin zur effizien­ten, skalier­baren und kos­ten­trans­par­enten Bere­it­stel­lung, sodass Unternehmen sorgfältig abwä­gen müssen, wo sich der Ein­satz solch­er Sys­teme wirk­lich rech­net.

Zum Beitrag: “Mit KI-Agen­ten ist nicht einen Tag später alles effizien­ter”

Warum viele KI-Agen­ten-Pro­jek­te scheit­ern

Viele ver­meintliche KI-Agen­ten ent­pup­pen sich in der Prax­is als ein­fache Chat­bots, scheit­ern beim Über­gang vom Pilot in die Pro­duk­tion an fehlen­dem Lasttest, man­gel­nder Eval­u­a­tion und unzure­ichen­der Sicher­heits- und Gov­er­nance-Struk­tur. Typ­is­che Architek­tur­fehler sind ungeprüfter, per „Vibe-Cod­ing“ gener­iert­er Code, fehlende Kostenkon­trolle bei token­in­ten­siv­en Mul­ti-Agen­ten-Sys­te­men, über­schätzte Vorteile von Mul­ti-Agen­ten gegenüber Sin­gle-Agen­ten sowie ein Mod­ell-Fetisch, der sauberes Con­text-Engi­neer­ing und durch­dachte Prozes­sar­chitek­tur ver­drängt. Erfol­gre­iche Unternehmen definieren daher klare Token- und Gov­er­nance-Bud­gets, testen ihre Agen­ten unter Realbe­din­gun­gen und set­zen auf robuste Architek­tur-Entschei­dun­gen rund um Daten­zu­griff, Par­al­lelisier­barkeit und Kon­textman­age­ment statt auf das jew­eils neueste Fron­tier-Mod­ell.

Zum Beitrag: KI-Agen­ten scheit­ern nicht am Mod­ell – son­dern an diesen fünf Architek­tur­fehlern

KI-Agen­ten im EU-Recht­srah­men

KI-Agen­ten gel­ten im EU-KI-Gesetz nicht als eigene Kat­e­gorie, fall­en aber voll­ständig unter die all­ge­meine KI-Sys­temde­f­i­n­i­tion und lösen – je nach Ein­satz – par­al­lel Pflicht­en aus AI Act, DSGVO, Cyber Resilience Act, DSA, Data Act, NIS2, Pro­duk­thaf­tungsrecht und sek­tor­spez­i­fis­chen Regel­w­erken aus. Für Anbi­eter wird damit die voll­ständi­ge Inven­tarisierung aller exter­nen Aktio­nen eines Agen­ten (Daten­flüsse, Schnittstellen, betrof­fene Per­so­n­en) zum zen­tralen Com­pli­ance-Hebel, während Hochrisiko-Agen­ten­sys­teme ohne nachvol­lziehbares Laufzeitver­hal­ten fak­tisch nicht rechtssich­er in der EU bere­it­gestellt wer­den kön­nen. Gener­ische Agen­ten­plat­tfor­men müssen ihren Ver­wen­dungszweck entwed­er tech­nisch und ver­traglich eng begren­zen oder sich am höch­sten denkbaren Risikoniveau aus­richt­en und zusät­zlich zwei par­al­lele Nor­mungsp­fade (AI-Act-Nor­men M/613 und CRA-Nor­men M/606) mit noch lück­en­hafter Stan­dard­si­t­u­a­tion navigieren.

Zum Beitrag: KI-Agen­ten im EU-Recht­srah­men: Was Anbi­eter jet­zt wis­sen müssen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert