Getting your Trinity Audio player ready...
|
Wir stellen uns eine Welt vor, in der Menschen und KI-Agenten zusammenarbeiten und nutzbringend interagieren, wobei KI datengestützte strategische Empfehlungen generiert, die direkt von anderen KI-Agenten umgesetzt, an menschliche Entscheidungsträger weitergegeben oder in komplexere interaktive Systeme integriert werden können. Large Language Models (LLMs) und allgemeiner Foundation Models (FMs) bringen uns dieser Vision näher, indem sie es Laien ermöglichen, mit KI unter Verwendung natürlicher Sprache zu interagieren und dadurch bei vielen Aufgaben erhebliche, manchmal radikale, Effizienzgewinne zu erzielen.
Bei der Bewertung des strategischen Denkens bleiben die Fähigkeiten dieser Modelle jedoch unzureichend. Wir schlagen daher eine kollaborative Forschungsagenda vor, die die Einbeziehung spieltheoretischer Paradigmen in die Forschung und das Design von FMs und LLMs beinhaltet, und umgekehrt.
Diese Zusammenarbeit wird strategische FMs ermöglichen — z.B. LLMs, die in natürlicher Sprache kommunizieren, aber strategische Entscheidungsfähigkeiten aufweisen -, die die Schaffung eines fruchtbaren Ökosystems hervorbringen können, in dem Menschen und KI-Agenten effektiv zusammenarbeiten.
Quelle: Strategic Foundation Models
Strategische Agenten entwickeln
Viele erfolgreiche strategische KI-Agenten wurden für spezifische Spiele wie Schach, Go, Shogi und Poker entwickelt. AlphaZero war ein früher Versuch, einen allgemeinen Spiel-Agenten zu entwerfen, der übermenschliches Spielniveau in mehreren Spielen erreichen kann, benötigt jedoch handgefertigte Regeln für jedes Spiel. MuZero verbesserte AlphaZero, indem es Spielmechaniken und Strategien aus wiederholtem Spielen erlernte, wodurch die Notwendigkeit für handgefertigte Regeln entfiel. Trotz ihrer Fähigkeiten sind diese Algorithmen keine grundlegenden Modelle, da ihr Vorab-Training nicht allgemein ist.
Empirische spieltheoretische Analysen (EGTA) bieten Techniken zur Lösung großer Spiele, die nur über Simulatoren spezifiziert sind. Neuere Forschungen konzentrieren sich darauf, Agenten zu entwickeln, die ihre Strategien an verschiedene Spiele und Gegner anpassen können. Einige Agenten zeigen Lernfähigkeiten im Kontext, was bedeutet, dass sie ihr Verhalten basierend auf früheren Spielverläufen anpassen. Diese geschichtsbasierten Politiken sind wichtig für optimale Entscheidungen in teilweise beobachtbaren Umgebungen.
Idealerweise würden strategische Grundmodelle in Interaktionen Entscheidungen treffen, die durch spieltheoretische Vorhersagen bestimmt sind. Viele interessante Gleichgewichte sind jedoch schwer zu berechnen. Neural Equilibrium Solvers (NESs) sind Modelle, die Spielinstanzen einem Gleichgewicht zuordnen, können aber nicht immer genaue Gleichgewichte effizient finden.
In einer Welt mit mehreren strategischen Grundmodellen ist es wichtig zu bestimmen, welches Gleichgewicht für die Vorhersage ihrer kollektiven Ergebnisse geeignet ist. Strategische Grundmodelle könnten auch als direkte Solver oder zur Initialisierung für rechenintensive Probleme in der kooperativen Spieltheorie dienen, wo Gruppen von Agenten gemeinsam Ziele verfolgen.
Vorhandene Sprachmodelle zeigen bereits einige strategische Denkfähigkeiten, diese sind jedoch oft heuristisch und nicht immer zuverlässig in komplexen Situationen. Ein gezieltes Training könnte ihre strategischen Fähigkeiten verbessern. Strategische Agenten benötigen Fähigkeiten, die über die wörtliche Interpretation hinausgehen, um die Absichten und Bedeutungen in Gesprächen zu verstehen. Weiterführende Forschung ist nötig, um diese Fähigkeiten in verschiedenen kommunikativen Kontexten zu entwickeln. Emergent Communication könnte helfen, pragmatische Fähigkeiten durch Interaktion zu fördern, allerdings ist es unrealistisch zu erwarten, dass menschliche Sprache nur durch Interaktion vollständig entsteht.