Getting your Trinity Audio player ready...
|
Laut einer neuen Studie der Shanghai Jiao Tong University können große Sprachmodelle (LLMs) komplexe Denkaufgaben ohne große Datensätze erlernen. Die Forscher zeigen, dass man mit einer kleinen Anzahl gut kuratierter Beispiele LLMs für Aufgaben trainieren kann, für die zuvor zehntausende Trainingsinstanzen erforderlich waren. Dieses Prinzip wird als „Less is More“ (LIMO) bezeichnet1LIMO: Less is More for Reasoning2Researchers find you don’t need a ton of data to train LLMs for reasoning tasks.
Die Studie demonstrierte, dass ein LLM, das auf einem LIMO-Datensatz mit einigen Hundert Beispielen für mathematische Denkaufgaben trainiert wurde, eine hohe Erfolgsquote erzielte. Beispielsweise erreichte das Modell Qwen2.5–32B-Instruct mit 817 Beispielen 57,1 % Genauigkeit beim AIME-Benchmark und 94,8 % beim MATH-Benchmark, was besser war als Modelle, die mit deutlich mehr Beispielen trainiert wurden.
Die Forscher identifizierten zwei Hauptgründe, warum LLMs mit weniger Beispielen komplexe Denkaufgaben erlernen können: Erstens haben moderne LLMs während der Vortraining-Phase umfangreiche mathematische Inhalte und Code verarbeitet, was ihnen bereits viel Wissen verleiht. Zweitens verbessern neue Nachtrainingsmethoden die Fähigkeit der Modelle, ihre vortrainierten Kenntnisse anzuwenden, indem sie längere Denkprozesse zulassen.
Die Erkenntnisse haben weitreichende Implikationen für den Einsatz von KI in Unternehmen, da sie zeigen, dass auch anspruchsvolle Denkfähigkeiten mit minimalen, aber sorgfältig ausgewählten Trainingsproben aktiviert werden können. Die Forscher planen, das Konzept auf andere Bereiche und Anwendungen auszuweiten.