Getting your Trinity Audio player ready...
|
Ein Team von Forschern bei Zoom Communications hat eine Technik entwickelt, die die Kosten und den Rechenaufwand für KI-Systeme zur Lösung komplexer Probleme erheblich senken könnte. Die Methode, genannt “Chain of Draft” (CoD), ermöglicht es großen Sprachmodellen (LLMs), Probleme mit minimalem Textaufwand zu lösen — in einigen Fällen nur 7,6% der benötigten Worte im Vergleich zu bisherigen Methoden, während die Genauigkeit beibehalten oder sogar verbessert wird1Chain of Draft: Thinking Faster by Writing Less.
CoD orientiert sich an der menschlichen Problemlösung, bei der nur wesentliche Informationen notiert werden. Die Forscher haben die Methode in verschiedenen Bereichen getestet und signifikante Verbesserungen in der Effizienz festgestellt. Beispielsweise reduzierte CoD bei sportbezogenen Fragen die durchschnittliche Ausgabe von 189,4 Tokens auf nur 14,3 Tokens, was eine Reduktion um 92,4% darstellt, während die Genauigkeit von 93,2% auf 97,3% anstieg.
.. Chain of Draft ermutigt LLMs, bei jedem Schritt prägnante, dichte Informationsausgaben zu erzeugen. Dieser Ansatz reduziert die Latenzzeit und die Rechenkosten ohne Einbußen bei der Genauigkeit, wodurch LLMs für reale Anwendungen, bei denen Effizienz von größter Bedeutung ist, praktischer werden.
Die Intuition, die hinter Chain of Draft steht, ist in der Art und Weise verwurzelt, wie Menschen Gedanken externalisieren. Beim Lösen komplexer Aufgaben — sei es beim Lösen mathematischer Probleme, beim Verfassen von Aufsätzen oder beim Programmieren — notieren wir uns oft nur die entscheidenden Informationen, die uns weiterbringen. Indem wir dieses Verhalten nachahmen, können sich LLMs auf die Entwicklung von Lösungen konzentrieren, ohne den Overhead einer ausführlichen Argumentation.
Für Unternehmen, die monatlich 1 Million Anfragen bearbeiten, könnte CoD die Kosten von 3.800 USD auf 760 USD senken und somit über 3.000 USD pro Monat einsparen. CoD kann einfach mit bestehenden Modellen implementiert werden, ohne dass eine kostspielige Modellneutraining oder architektonische Änderungen erforderlich sind. Dies macht die Technik besonders wertvoll für zeitkritische Anwendungen wie Kundenservice oder Finanzdienstleistungen.
Die Forschung zeigt, dass Effizienz bei der KI-Entwicklung immer wichtiger wird, während gleichzeitig der Zugang zu fortschrittlichen KI-Fähigkeiten für kleinere Organisationen erleichtert werden könnte. Die Forschungsdaten sind öffentlich auf GitHub verfügbar, sodass Organisationen die Methode in ihren eigenen KI-Systemen testen können.
Anmerkung
Im Prinzip wird bei dem Verfahren das Entscheidungsverhalten der Menschen nachgebildet, das auf Faustregeln bzw. Heuristiken beruht. Wie u.a. Gerd Gigerenzer gezeigt hat, reichen in den meisten Entscheidungssituationen einige wichtige trennscharfe Informationen aus, um zu einer validen Entscheidung zu gelangen.