Getting your Trinity Audio player ready...
|
Eine neue Studie von Nous Research zeigt, dass Open-Source-KI-Modelle erheblich mehr Rechenressourcen verbrauchen als geschlossene Modelle wie die von OpenAI oder Anthropic1That ‘cheap’ open-source AI model is actually burning through your compute budget.
Die zentralen Ergebnisse:
- Token-Verbrauch: Open-Source-Modelle benötigen 1,5 bis 4 Mal mehr Tokens, bei einfachen Wissensfragen sogar bis zu 10 Mal mehr. Dies macht sie trotz niedrigerer Kosten pro Token in der Gesamtbetrachtung oft teurer.
- Effizienzunterschiede: Geschlossene Modelle wie OpenAI’s o4-mini und gpt-oss sind besonders effizient, insbesondere bei mathematischen Problemen. Open-Source-Optionen wie Nvidia’s llama‑3.3‑nemotron-super-49b-v1 zeigen jedoch auch Potenzial.
- Architekturentscheidungen: Geschlossene Modelle wurden stärker auf Token-Effizienz optimiert, während Open-Source-Modelle oft mehr Rechenleistung für bessere Reasoning-Fähigkeiten investieren.
- Relevanz für Unternehmen: Die Total Cost of Ownership (TCO) für KI-Modelle hängt stark von ihrer Token-Effizienz ab. Unternehmen, die nur auf Genauigkeit und API-Preise schauen, könnten die tatsächlichen Nutzungskosten unterschätzen.
Implikationen
- Token-Effizienz sollte neben Genauigkeit ein zentraler Optimierungsfaktor für zukünftige Modelle sein.
- Unternehmen müssen ihre KI-Strategien überdenken, um die Skalierbarkeit und Wirtschaftlichkeit sicherzustellen.
- Geschlossene Anbieter setzen zunehmend auf komprimierte Reasoning-Traces, während Open-Source-Modelle oft vollständige Berechnungsschritte zeigen.
Die Studie hebt hervor, dass Effizienz in der KI-Entwicklung entscheidend wird, da steigende Rechenkosten ineffiziente Modelle langfristig untragbar machen könnten.