Getting your Trinity Audio player ready...
|
Große Sprachmodelle (Large Language Models, LLMs) sind äußerst kompetent bei sprachbasierten Aufgaben. Ihre sprachlichen Fähigkeiten haben sie an die Spitze des zukünftigen AGI-Rennens (Artificial General Intelligence) gebracht. Bei näherer Betrachtung zeigen Valmeekam et al. (2024); Zecˇevic ́ et al. (2023); Wu et al. (2024) jedoch eine erhebliche Lücke zwischen ihren Sprachkenntnissen und ihren Schlussfolgerungsfähigkeiten. Reasoning in LLMs und Vi- sion Language Models (VLMs) zielt darauf ab, diese Lücke zu schließen, indem diese Modelle in die Lage versetzt werden, zu denken und ihre Aktionen und Reaktionen neu zu bewerten. Reagieren ist eine wesentliche Fähigkeit zur Lösung komplexer Probleme und ein notwendiger Schritt zur Schaffung von Vertrauen in die Künstliche Intelligenz (KI). Dadurch wird die KI für den Einsatz in sensiblen Bereichen wie Gesundheitswesen, Bankwesen, Recht, Verteidigung, Sicherheit usw. geeignet. In jüngster Zeit, mit dem Aufkommen leistungsfähiger Argumentationsmodelle wie OpenAI O1 und DeepSeek R1, ist die Entwicklung von Argumenten zu einem wichtigen Forschungsthema in LLMs geworden. In diesem Beitrag geben wir einen detaillierten Überblick und Vergleich bestehender Reasoning-Techniken und präsentieren eine systematische Übersicht über Reasoning-gestützte Sprachmodelle. Wir untersuchen auch aktuelle Herausforderungen und stellen unsere Ergebnisse vor.
Quelle: Thinking Machines: A Survey of LLM based Reasoning Strategies