Miro­Mind hat Anfang Jan­u­ar 2026 mit Miro­Thinker 1.5 ein Open-Source-Mod­ell veröf­fentlicht, das mit 30 Mil­liar­den Para­me­tern Leis­tun­gen erre­ichen soll, für die andere Anbi­eter das Dreißig­fache an Rechenka­paz­ität aufwen­den. Die Bench­mark-Ergeb­nisse sind beachtlich, die Inferen­zkosten niedrig, der Code frei ver­füg­bar. Für Unternehmen, die KI-Agen­ten ein­set­zen wollen, stellt sich jedoch eine andere Frage: Was bedeutet das konkret?


Das Ver­sprechen

Miro­Thinker arbeit­et nach dem Prinzip des “Inter­ac­tive Scal­ing”. Statt immer größere Mod­elle zu trainieren, set­zt Miro­Mind auf iter­a­tive Ver­i­fika­tion­ss­chleifen: Das Mod­ell stellt Hypothe­sen auf, prüft sie gegen externe Quellen, rev­i­diert bei Wider­sprüchen und wieder­holt den Vor­gang bis zur Kon­ver­genz. Der “Sci­en­tist Mode” soll Hal­luz­i­na­tio­nen reduzieren, indem Unsicher­heit nicht durch sta­tis­tis­che Extrap­o­la­tion über­brückt, son­dern durch Recherche aufgelöst wird.

Für reg­ulierte Branchen klingt das attrak­tiv: nachvol­lziehbare Rea­son­ing-Ket­ten, Quel­lenangaben, Audit-Trails.

Die Rech­nung dahin­ter

Die kom­mu­nizierten 0,07 USD pro Aufruf rel­a­tivieren sich bei genauerem Hin­se­hen. Kom­plexe Auf­gaben erfordern laut Miro­Mind selb­st 200 bis 400 Tool-Aufrufe. Eine einzelne Recherche kostet damit 14 bis 28 USD – bevor Infra­struk­tur, Inte­gra­tion oder Per­son­alaufwand ein­gerech­net sind.

Hinzu kommt: Das Mod­ell liegt auf Hug­ging Face, die Deploy­ment-Empfehlung lautet SGLang oder vLLM. Zwis­chen Down­load und pro­duk­tivem Ein­satz liegen Entschei­dun­gen über Hard­ware, API-Anbindun­gen, Daten­quellen, Fehler­be­hand­lung und Qual­itätssicherung. Diese Inte­gra­tionsleis­tung erscheint in keinem Bench­mark.

Was Bench­marks nicht messen

BrowseC­omp und GAIA testen Web-Recherche-Fähigkeit­en unter kon­trol­lierten Bedin­gun­gen. Die Prax­is sieht anders aus:

  • Daten­qual­ität: Wie ver­hält sich das Sys­tem bei wider­sprüch­lichen Quellen? Bei ver­al­teten Infor­ma­tio­nen? Bei Quellen, die selb­st KI-gener­iert sind?
  • Sys­tem­inte­gra­tion: Die meis­ten Unternehmens­dat­en liegen nicht im offe­nen Web, son­dern in ERP-Sys­te­men, Daten­banken, inter­nen Doku­menten. Die Tool-Schnittstellen von Miro­Thinker sind auf Web-Suche und Scrap­ing aus­gelegt.
  • Haf­tung und Com­pli­ance: Wer ver­ant­wortet Entschei­dun­gen, die auf Agen­ten-Recherchen basieren? Die Audit-Trails helfen bei der Nachvol­lziehbarkeit, nicht bei der Haf­tungs­frage.
  • Wartung: Open-Source-Mod­elle entwick­eln sich weit­er. Wer pflegt die Inte­gra­tion, wenn Ver­sion 1.6 erscheint?

Die eigentliche Frage

Miro­Thinker ist kein schlecht­es Pro­dukt – die tech­nis­che Leis­tung ist real. Die Frage ist, für wen es gedacht ist.

Für Unternehmen mit eige­nen ML-Teams, klaren Use Cas­es und der Kapaz­ität für Inte­gra­tionsar­beit kann ein solch­es Mod­ell ein Baustein sein. Für die Mehrzahl der Unternehmen, die KI-Agen­ten als Werkzeug und nicht als Entwick­lung­spro­jekt betra­cht­en, bleibt die Lücke zwis­chen Ver­füg­barkeit und Ein­satzreife beste­hen.

Die Bench­mark-Kom­mu­nika­tion adressiert Entwick­ler und Inve­storen. Was fehlt, ist eine ehrliche Darstel­lung dessen, was zwis­chen GitHub-Repos­i­to­ry und Geschäft­sprozess liegt. Das ist kein Vor­wurf an Miro­Mind – es ist das Muster der Branche. Solange KI-Agen­ten primär über tech­nis­che Leis­tungskenn­zahlen ver­mark­tet wer­den, bleibt die betrieb­swirtschaftliche Bew­er­tung Sache des Anwen­ders.

Faz­it

Miro­Thinker 1.5 zeigt, dass leis­tungs­fähige KI-Agen­ten nicht mehr nur den großen Plat­tfor­men vor­be­hal­ten sind. Die Demokratisierung der Tech­nolo­gie ist real. Was nicht demokratisiert wird, ist die Kom­pe­tenz zur Inte­gra­tion. Für Entschei­der bedeutet das: Bench­mark-Ergeb­nisse sind Ein­gangskri­te­rien, keine Kaufentschei­dun­gen. Die rel­e­van­ten Fra­gen liegen eine Ebene tiefer.


Ralf Keu­per 

Quellen:

Ven­ture­Beat-Artikel:
https://venturebeat.com/technology/mirominds-mirothinker‑1–5‑delivers-trillion-parameter-performance-from-a-30b

Beschreibt, wie Miro­Thinker 1.5 mit 30B Para­me­tern Tril­lio­nen-Para­me­ter-Leis­tung erre­icht.​

Offizieller Blog von Miro­Mind: https://research.miromind.ai/blog/introducing-mirothinker‑1.5–30b-parameters-that-outperform-1t-models

Ein­führung des Mod­ells, Details zu Bench­marks (z. B. BrowseC­omp 69,8%), Train­ing-Meth­o­d­en und inter­ak­tivem Skalieren.

Hug­ging Face Mod­ell-Repo (235B): https://huggingface.co/miromind-ai/MiroThinker-v1.5–235B

Herun­ter­lad­bare Mod­elle, Kon­textfen­ster (256K), Deploy­ment-Anleitun­gen mit SGLang/vLLM und Tool-Pro­tokollen.​

Red­dit-Diskus­sion (r/LocalLLaMA):
https://www.reddit.com/r/LocalLLaMA/comments/1q4m6k0/the_major_release_of_mirominds_flagship_search/

Com­mu­ni­ty-Reak­tio­nen zur Major-Release des Such-Agen­ten-Frame­works.

YouTube-Video:
https://www.youtube.com/watch?v=gY22nDIGdPs

„Miro­Thinker 1.5 — The 30B That Out­per­forms 1T Mod­els“ – Visuelle Über­sicht zur Leis­tung.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert