Getting your Trinity Audio player ready...

Autonome KI-Agen­ten kön­nen in ver­schiedene Arbeitsabläufe inte­gri­ert wer­den und eine Vielzahl von Auf­gaben übernehmen, von der Infor­ma­tion­ssuche in inter­nen Doku­menten bis hin zu Empfehlun­gen für men­schliche Mitar­beit­er. Allerd­ings stellen sie eine erhe­bliche Sicher­heit­sher­aus­forderung für Unternehmen dar, da sie Zugriff auf sen­si­ble Dat­en benöti­gen, um effek­tiv zu arbeit­en. Dies birgt das Risiko, dass pri­vate Infor­ma­tio­nen verse­hentlich offen­gelegt oder sen­si­ble unternehmensin­terne Dat­en an unbefugte Dritte weit­ergegeben wer­den1Invis­i­ble, autonomous and hack­able: The AI agent dilem­ma no one saw com­ing.

Laut ein­er kür­zlich durchge­führten Studie des Beratung­sun­ternehmens Accen­ture, beab­sichti­gen lediglich 32 Prozent der Unternehmen, in den näch­sten drei Jahren Agen­ten für ihre Arbeitsabläufe ein­set­zen zu kön­nen. Größter Hemm­schuh ist die Ver­wal­tung und Orchestrierung ihrer unver­bun­den arbei­t­en­den Agen­ten und die Sich­er­stel­lung, dass die Ergeb­nisse ihrer gen­er­a­tiv­en KI-Anwen­dun­gen nicht aus dem Rud­er laufen. Eine  ord­nungs­gemäße Gov­er­nance ist daher unab­d­ing­bar, damit Agen­ten kon­sis­tente Erfahrun­gen liefern.

Sicher­heit­srisiken von AI-Agen­ten

Der zunehmende Ein­satz von Mul­ti-Agen­ten-Sys­te­men kann auf­grund der wach­senden Anzahl von Verbindungspunk­ten und Schnittstellen, die Mul­ti-Agen­ten-Sys­teme haben, neue Angriffsvek­toren und Schwach­stellen erzeu­gen, die aus­genutzt wer­den kön­nten, wenn sie nicht von Anfang an angemessen gesichert wer­den.

Eine weit­ere Her­aus­forderung ist die von Retrieval-Aug­ment­ed Gen­er­a­tion (RAG) und agen­tis­chen Anwen­dungs­fällen. Organ­i­sa­tio­nen müssen ihre Richtlin­ien zur Doku­menten­freiga­be über­denken, da Agen­ten durch ihre Such­funk­tio­nen auf alle Infor­ma­tio­nen zugreifen kön­nen, die ihre Auf­gaben unter­stützen. Dies führt zu Fra­gen wie: Wie viel Zugriff soll­ten die Agen­ten haben? Und wie soll­ten sie iden­ti­fiziert wer­den?

Schwach­stellen von AI-Agen­ten

Die Ein­führung von gen­er­a­tiv­en KI-Tools hat viele Unternehmen für poten­zielle Schwach­stellen sen­si­bil­isiert. Daten­vergif­tung, Prompt-Injec­tion oder soziale Manip­u­la­tion, kön­nen nicht nur in Einzel‑, son­dern auch in Mul­ti-Agen­ten-Sys­te­men auftreten. Daher ist es entschei­dend, darauf zu acht­en, welche Infor­ma­tio­nen Agen­ten zugänglich sind, um die Daten­sicher­heit zu gewährleis­ten.

Generell gilt, dass viele Sicher­heit­sprob­leme, die für men­schliche Mitar­beit­er gel­ten, auch auf Agen­ten zutr­e­f­fen. Es ist daher wichtig, dass sowohl Men­schen als auch Agen­ten nur auf die Infor­ma­tio­nen zugreifen, die sie wirk­lich benöti­gen. Bei mehrstu­fi­gen agen­tis­chen Arbeitsabläufen gibt es an jedem Schritt die Möglichkeit für Hack­er, einzu­drin­gen.

Iden­tität der Agen­ten

Eine mögliche Lösung für diese Sicher­heit­sprob­lematik kön­nte darin beste­hen, Agen­ten spez­i­fis­che Zugriff­si­den­titäten zuzuweisen. Experten schla­gen vor, dass Unternehmen die Iden­tität von Agen­ten und der Men­schen, die für deren Anfra­gen ver­ant­wortlich sind, über­all in der Organ­i­sa­tion aufze­ich­nen müssen. Diese Prax­is kön­nte helfen, den Zugriff auf sen­si­ble Dat­en bess­er zu steuern.

Diese Herange­hensweise kann dazu führen, dass Unternehmensleit­er über­denken, wie sie Infor­ma­tio­nen für Nutzer zugänglich machen. Agen­tis­che Work­flows bieten die Möglichkeit, den Zugang zu Dat­en auf das Notwendi­ge zu beschränken, was das Risiko von Über­freiga­ben ver­ringern kann. So benötigt in einem Work­flow, der für spez­i­fis­che Oper­a­tio­nen aus­gelegt ist, nicht jed­er Schritt densel­ben Daten­zu­griff wie andere.

Notwendigkeit ein­er umfassenden Überwachung

Die tra­di­tionellen Auditver­fahren kön­nten für die Her­aus­forderun­gen, die AI-Agen­ten mit sich brin­gen, nicht aus­re­ichend sein. Unternehmen soll­ten nach agen­tis­chen Plat­tfor­men suchen, die es ermöglichen, die Aktiv­itäten der Agen­ten zu überwachen. Ein Beispiel ist Agen­tX von Pega2Pega Agent Expe­ri­ence sorgt mit zuver­läs­si­gen KI-Agen­ten für ver­trauenswürdi­ge Unternehmens-Work­flows. Die Lösung ermöglicht es men­schlichen Nutzern, zu sehen, welche Schritte ein Agent untern­immt. Nutzer kön­nen den Fortschritt des Agen­ten im Work­flow ver­fol­gen und die genauen Aktio­nen ein­se­hen.

Ähn­liche Lösun­gen wie Agen­tX von Pega3Top 5 Pega Alter­na­tives in 2025

  • Zen­desk: Bietet eine umfassende Kun­denser­vice-Plat­tform mit KI-gestütztem Agent Work­space, Work­flow-Automa­tisierung und Omnichan­nel-Sup­port.
  • Sales­force Ser­vice Cloud: Eine leis­tungsstarke CRM-Lösung mit KI-Funk­tio­nen, Work­flow-Man­age­ment und Automa­tisierungsmöglichkeit­en.
  • Ser­vi­ceNow: Bietet Work­flow-Automa­tisierung und KI-gestützte Lösun­gen für ver­schiedene Geschäft­sprozesse, ein­schließlich Kun­denser­vice.
  • Appi­an: Eine Low-Code-Plat­tform, die Work­flow-Automa­tisierung und KI-Inte­gra­tion für Unternehmen­sprozesse ermöglicht.
  • Out­Sys­tems: Eine weit­ere Low-Code-Plat­tform, die die Entwick­lung von Geschäft­san­wen­dun­gen mit Work­flow-Funk­tio­nen unter­stützt.

Faz­it

Obwohl Audits, Zeit­pläne und Iden­ti­fika­tio­nen keine per­fek­ten Lösun­gen für die Sicher­heit­sprob­leme bieten, die durch AI-Agen­ten entste­hen, kön­nen sie Unternehmen dabei helfen, diese Her­aus­forderun­gen zu bewälti­gen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert