Getting your Trinity Audio player ready...
|
AI-Agenten haben Probleme mit Sicherheit und Zuverlässigkeit. Obwohl sie Unternehmen helfen könnten, Arbeitsabläufe zu automatisieren, können sie unbeabsichtigte Aktionen durchführen, sind unflexibel und schwer zu kontrollieren. Es gibt Bedenken, dass Agenten nach ihrer Implementierung Anweisungen vergessen könnten1New approach to agent reliability, AgentSpec, forces agents to follow rules.
OpenAI hat eingeräumt, dass die Sicherstellung der Zuverlässigkeit von Agenten die Zusammenarbeit mit externen Entwicklern erfordert. Daher wurde das Agents SDK eingeführt. Forscher der Singapore Management University (SMU) haben jedoch einen neuen Ansatz zur Verbesserung der Zuverlässigkeit von Agenten entwickelt: AgentSpec.
AgentSpec ist ein domänenspezifisches Framework, das es Nutzern ermöglicht, strukturierte Regeln mit Auslösern, Bedingungen und Durchsetzungsmechanismen zu definieren. Es ist nicht ein neuer LLM, sondern ein Leitfaden für LLM-basierte Agenten. Erste Tests zeigen, dass AgentSpec über 90 % der unsicheren Codeausführungen verhindert und in verschiedenen Szenarien rechtliche Verstöße vermeidet.
AgentSpec funktioniert als Runtime-Überwachungsschicht, die das Verhalten des Agenten während der Aufgabenbearbeitung abfängt und Sicherheitsregeln anwendet. Es besteht aus drei Komponenten: Auslöser, Bedingungen und Durchsetzung.
Da AgentSpec in mehreren Frameworks integriert werden kann, wird es als entscheidend für die Zuverlässigkeit von Agenten in Unternehmen angesehen. Angesichts der Entwicklung von „ambient agents“ ist die Notwendigkeit für zuverlässige Agenten besonders wichtig, um unbeabsichtigte und unsichere Aktionen zu vermeiden.
Erstellt mit Poe