Getting your Trinity Audio player ready...
|
Forscher der University of California, Berkeley, Stanford University und Databricks haben mit GEPA (Genetic-Pareto) eine neue Methode zur Optimierung von großen Sprachmodellen (LLMs) entwickelt, die traditionelle Verstärkungslernmethoden (RL) deutlich übertrifft. GEPA ersetzt das übliche Trial-and-Error-Verfahren durch die Nutzung der Sprachverständnisfähigkeiten von LLMs, um Fehler zu analysieren und Anweisungen iterativ zu verbessern1GEPA optimizes LLMs without costly reinforcement learning.
Wichtige Vorteile von GEPA:
- Effizienz: Bis zu 35-mal weniger Testläufe im Vergleich zu RL, bei gleichzeitig besserer Genauigkeit.
- Kostenreduktion: Reduzierung der Optimierungskosten um das 15-fache (z. B. $20 statt $300 GPU-Kosten).
- Schnellere Entwicklung: Optimierungszeit wird um das 8‑fache verkürzt.
Wie GEPA funktioniert:
- Genetische Prompt-Evolution: Prompts werden als “Genpool” behandelt und durch intelligente Mutation verbessert.
- Sprachbasierte Reflexion: Das Modell analysiert Feedback in natürlicher Sprache (z. B. Fehlermeldungen) und generiert optimierte Prompts.
- Pareto-basierte Selektion: Statt nur den besten Prompt zu wählen, wird eine diverse Auswahl an spezialisierten Prompts erhalten, um optimale Lösungen zu finden.
Stärken gegenüber RL:
- Verwendet reichhaltiges sprachliches Feedback anstatt einfacher numerischer Belohnungen.
- Reduziert den “Generalization Gap”, was zu robusteren und anpassungsfähigeren Systemen führt.
- Kürzere Prompts reduzieren Latenz und Kosten in der Produktion.
Praktische Anwendungen:
- Automatische Optimierung: GEPA kann in CI/CD-Pipelines integriert werden, um kontinuierlich optimierte Lösungen zu generieren.
- Breitere Zugänglichkeit: Endnutzer ohne RL-Kenntnisse können komplexe KI-Systeme effizient optimieren.
Ergebnisse:
GEPA erzielte in Tests bis zu 19% höhere Leistung, reduzierte Entwicklungszeiten erheblich und machte KI-Systeme zuverlässiger und kosteneffizienter. Dies ist ein entscheidender Schritt hin zu nachhaltigen und benutzerfreundlicheren KI-Entwicklungsansätzen.