Getting your Trinity Audio player ready...
|
Unternehmen setzen zunehmend auf große Sprachmodelle (LLMs), um fortgeschrittene Dienstleistungen anzubieten, haben jedoch Schwierigkeiten, die hohen Rechenkosten für den Betrieb dieser Modelle zu bewältigen. Ein neuer Ansatz namens “Chain-of-Experts” (CoE) zielt darauf ab, LLMs ressourcenschonender zu gestalten und gleichzeitig die Genauigkeit bei logischen Aufgaben zu erhöhen1Chain-of-experts (CoE): A lower-cost LLM framework that increases efficiency and accuracy.
Das CoE-Framework aktiviert „Experten“ – separate Modellelemente, die auf bestimmte Aufgaben spezialisiert sind – sequenziell statt parallel. Diese Struktur ermöglicht es den Experten, Zwischenresultate auszutauschen und aufeinander aufzubauen.
Im Konzept von Chain-of-Experts (CoE) spielt das Mixture of Experts (MoE) — Modell eine wichtige Rolle als Ausgangspunkt, da CoE viele der Herausforderungen adressiert, die bei der Verwendung von MoE auftreten.
Rolle von MoE im CoE-Konzept
- Basisarchitektur: MoE bietet eine Struktur, in der Experten spezialisiert sind und nur ein Teil der Gesamtparameter während der Inferenz aktiviert wird. Diese Effizienz wird in CoE weiter optimiert.
- Herausforderungen: MoE hat einige Einschränkungen, wie die unabhängige Arbeitsweise der Experten und hohe Speichersparsamkeit, was die Leistung bei kontextabhängigen Aufgaben beeinträchtigen kann. CoE zielt darauf ab, diese Probleme zu überwinden.
- Sequenzielle Aktivierung: Während MoE Experten parallel aktiviert, nutzt CoE eine sequenzielle Aktivierung. Dadurch können Experten miteinander kommunizieren und auf vorherige Erkenntnisse aufbauen, was die Genauigkeit und Effizienz erhöht.
- Verbesserte Leistung: CoE demonstriert, dass durch die Kombination der Vorteile von MoE mit einer besseren Kommunikationsstruktur zwischen den Experten die Gesamtleistung des Modells signifikant gesteigert werden kann.
Dies verbessert die Kontextsensitivität und die Fähigkeit, komplexe logische Aufgaben zu bearbeiten. Tests zeigen, dass CoE mit gleichen Rechenressourcen leistungsfähiger ist als dichte LLMs und MoEs. Außerdem reduziert es die Speicheranforderungen.
Die Forscher betonen, dass CoE eine effizientere Modellarchitektur ermöglicht und signifikante Leistungsverbesserungen bei geringeren Kosten bietet. Diese Entwicklungen könnten fortschrittliche KI für Unternehmen zugänglicher und nachhaltiger machen.