Der Psychologe und Nobelpreisträger für Wirtschaftswissenschaften, Daniel Kahnemann, machte in seinem Buch Schnelles Denken, langsames Denken die Unterscheidung zwischen System-1-Denken und System-2-Denken populär. Während sich System-1-Denken dadurch auszeichnet, dass es schnell, intuitiv und automatisch vorgeht, z.B. indem wir Muster erkennen, schnelle Urteile fällen oder vertraute Symbole verstehen, verläuft das System2-Denken deutlich langsamer ab. Es erfordert bewusste Anstrengung und wird zur Lösung komplexer Probleme eingesetzt, z. B. bei der Handhabung abstrakter Symbole, beim Lösen mathematischer Gleichungen oder bei der Planung einer Reise.
Große Sprachmodelle (Large Language Models, LLMs) im herkömmlichen Sinn repräsentieren das System-1-Denken. Bei der Beantwortung einfacher Fragen sind sie sehr gut. Wenn sie komplexe Aufgaben lösen sollen, die logisches Denken und Planung erfordern, benötigen sie jedoch spezielle Prompting-Techniken.
In den letzten Jahren haben KI-Forscher gezeigt, dass LLMs dazu gebracht werden können, das System-2-Denken zu imitieren, indem sie aufgefordert werden, Zwischenschritte zu generieren, bevor sie ihre endgültige Antwort geben. Die „Chain of Thought“ zum Beispiel ist eine Aufforderungstechnik, die den LLM anweist, seinen Denkprozess Schritt für Schritt zu erklären, was oft zu genaueren Ergebnissen bei logischen Denkaufgaben führt. Mehrere System2 - Prompting-Techniken sind auf verschiedene Aufgaben zugeschnitten. Der Nachteil dieser Methoden ist jedoch, dass sie sehr viel Zeit und Rechenaufwand erfordern.
Forscher von Meta haben kürzlich ein Paper veröffentlicht, in dem sie die System2-Destillation vorstellen. Dabei wird kein separates Lehrermodell verwendet, sondern es wird das Wissen aus den eigenen System-2-Schlussfolgerungsfähigkeiten des Modells in die schnelle und rechnereffiziente System-1-Generierung destilliert.
Die Ergebnisse zeigen, dass die System-2-Destillation die Leistung von LLMs bei komplexen Argumentationsaufgaben erheblich verbessern kann und oft die Genauigkeit der ursprünglichen System-2-Methoden erreicht oder übertrifft. Darüber hinaus können die destillierten Modelle Antworten viel schneller und mit weniger Rechenaufwand generieren, da sie die Zwischenschritte der Argumentation nicht durchlaufen müssen.
Ein weiteres Ergebnis war jedoch, dass LLMs, wie Menschen, nicht alle Arten von logischem Denken in ihren schnellen Schlussfolgerungsmechanismus integrieren können. So waren sie beispielsweise nicht in der Lage, komplexe mathematische Denkaufgaben, die eine Gedankenkette erfordern, erfolgreich zu lösen. Dies deutet darauf hin, dass einige Aufgaben immer ein bewusstes Denken erfordern könnten.
Daniel Kahnemann gibt zu bedenken, dass es Aufgaben gibt, die nur System 2 erledigen kann, weil sie Anstrengung und Selbstbeherrschung erfordern, mit denen die Intuitionen, Impulse und kognitive Verzerrungen von System 1 überwunden werden. Eine weitere, wichtige Einschränkung:
Menschen neigen dazu "kausales Denken unsachgemäß anzuwenden, nämlich auf Situationen, die statistisches Denken erfordern. Statistisches Denken leitet Schlüsse über Einzelfälle von Eigenschaften aus Kategorien und Gesamtheiten ab. Leider ist System 1 dieser Denkmodus nicht zugänglich; System 2 kann lernen statistisch zu denken, aber nur wenige Menschen erhalten die notwendige Schulung" (in: Schnelles Denken, langsames Denken)
Quellen und weitere Informationen:
How far can you trust chain-of-thought prompting?
Chain of Thoughtlessness? An Analysis of CoT in Planning
Meta researchers distill System 2 thinking into LLMs, improving performance on complex reasoning
Kommentar hinzufügen
Kommentare