Im Bereich der künstlichen Intelligenz vollzieht sich ein grundlegender Wandel von Systemen, die auf Anfrage synthetische Inhalte produzieren können, hin zu autonomen Agenten, die komplexe Aufgaben mit nur begrenzter menschlicher Beteiligung planen und ausführen können. Unternehmen, die bei der Entwicklung generativer KI-Tools Pionierarbeit geleistet haben, entwickeln nun KI-Agenten, die angewiesen werden können, selbstständig im Internet zu navigieren, eine Vielzahl von Online-Aufgaben auszuführen und als künstliche persönliche Assistenten und virtuelle Mitarbeiter zu dienen. Die Chancen, die sich durch diese neue Technologie ergeben, sind enorm, aber auch die damit verbundenen Risiken.
Glücklicherweise gibt es robuste analytische Rahmenwerke, um viele dieser Herausforderungen zu bewältigen, nämlich die ökonomische Theorie der Prinzipal-Agenten-Probleme und die Common Law Doktrin der Agency-Beziehungen. Der vorliegende Artikel stützt sich auf diese Rahmenwerke und leistet drei Beiträge. Erstens nutzt er das Recht und die Theorie der Handelsvertreter, um Probleme zu identifizieren und zu charakterisieren, die durch KI-Agenten entstehen, einschließlich Fragen der Informationsasymmetrie, der Ermessensbefugnis und der Loyalität. Zweitens zeigt er die Grenzen konventioneller Lösungen für Agency-Probleme auf: Anreizgestaltung, Überwachung und Durchsetzung sind möglicherweise nicht effektiv für die Steuerung von KI-Agenten, die nicht interpretierbare Entscheidungen treffen und mit beispielloser Geschwindigkeit und in ungeahntem Umfang operieren. Drittens untersucht der Artikel die Implikationen des Agency-Rechts und der Agency-Theorie für die Gestaltung und Regulierung von KI-Agenten und argumentiert, dass eine neue technische und rechtliche Infrastruktur erforderlich ist, um die Governance-Prinzipien der Inklusivität, Sichtbarkeit und Haftung zu unterstützen.
Quelle: Governing AI Agents