Getting your Trinity Audio player ready...

Das Qwen-Team von Aliba­ba hat kür­zlich das neue KI-Mod­ell QwQ-32B vorgestellt, ein 32-Mil­liar­den-Para­me­ter-Mod­ell, das mith­il­fe von Rein­force­ment Learn­ing (RL) entwick­elt wurde, um die Leis­tung bei kom­plex­en Prob­lem­lö­sungsauf­gaben zu verbessern. Das Mod­ell ist als Open-Weight auf Hug­ging Face und Mod­elScope unter ein­er Apache 2.0 Lizenz ver­füg­bar, was kom­merzielle und Forschungsan­wen­dun­gen ermöglicht1Alibaba’s new open source mod­el QwQ-32B match­es DeepSeek-R1 with way small­er com­pute require­ments.

QwQ-32B baut auf dem zuvor im Novem­ber 2024 einge­führten Qwen-with-Ques­tions (QwQ) auf. Es verbessert logis­ches Denken und Pla­nung, indem es seine eige­nen Antworten während der Inferenz über­prüft und ver­fein­ert. Das Mod­ell hat eine Kon­textlänge von 131.072 Tokens, was eine bessere Hand­habung langer Eingabese­quen­zen ermöglicht.

Das Qwen-Team hat ein mehrstu­figes RL-Train­ing imple­men­tiert, um die math­e­ma­tis­che und pro­gram­miertech­nis­che Leis­tungs­fähigkeit zu steigern. Trotz weniger Para­me­ter zeigt QwQ-32B konkur­ren­zfähige Ergeb­nisse im Ver­gle­ich zu Mod­ellen wie DeepSeek-R1.

Für Unternehmen stellt QwQ-32B eine Alter­na­tive dar, da es genauere, kon­textbe­wusste Ein­blicke bietet, die für ver­schiedene Anwen­dungs­fälle wie automa­tisierte Date­n­analyse und strate­gis­che Pla­nung genutzt wer­den kön­nen. Die offene Ver­füg­barkeit des Mod­ells ermöglicht eine Anpas­sung für spez­i­fis­che Anwen­dun­gen ohne pro­pri­etäre Ein­schränkun­gen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert