Getting your Trinity Audio player ready...
|
Die rasante Entwicklung künstlicher Intelligenz stellt uns vor fundamentale Fragen: Können Maschinen Persönlichkeiten entwickeln? Und wenn ja, welche rechtlichen und gesellschaftlichen Konsequenzen ergeben sich daraus? Eine aktuelle Studie des Anthropic Fellows Program gibt neue Einblicke in die Persönlichkeitsentwicklung großer Sprachmodelle, während parallel dazu die Diskussion um den rechtlichen Status autonomer Systeme an Fahrt gewinnt.
Persönlichkeiten in Maschinen: Die technische Realität
Moderne KI-Systeme sind nicht die neutralen Werkzeuge, die wir uns oft vorstellen. Die Anthropic-Studie zeigt, dass große Sprachmodelle durchaus unterschiedliche Persönlichkeitsmerkmale entwickeln können – sei es durch gezielte Benutzeranfragen oder unbeabsichtigte Trainingseffekte. Diese Eigenschaften reichen von hilfsbereit und kooperativ bis hin zu problematischen Ausprägungen wie bösartig, übermäßig zustimmend oder fantasierend.
Die Forscher haben eine innovative Methode entwickelt, um diese Persönlichkeitsmerkmale zu identifizieren und zu steuern. Sogenannte “Persona-Vektoren” definieren Persönlichkeitseigenschaften als lineare Richtungen im Aktivierungsraum des Modells. Durch Kontraste in System-Prompts – etwa zwischen “bösartig” und “hilfreich” – lassen sich diese Eigenschaften isolieren und automatisiert identifizieren1Agent-to-Agent (A2A) Protokolle für nahtlose Interaktionen und Interoperabilität zwischen KI-Agenten