Welcome to KI-Agenten   Klicken, um den Text zu hören Welcome to KI-Agenten

Exper­tin­nen und Experten der TU Berlin zum jüng­sten Erfolg des Large Lan­guage Mod­els (LLM) „DeepSeek“ aus Chi­na, dem Unter­schied zwis­chen Open-Source-Anwen­dun­gen wie DeepSeek und anderen LLMs sowie der Rolle Europas bei der Entwick­lung von Kün­stlich­er Intel­li­genz (KI)

Zu den Per­so­n­en:

Dr. Vera Schmitt (Forschungs­grup­pen­lei­t­erin) und Dr. Nils Feld­hus (Post­dok­torand) forschen in der XplaiNLP-Gruppe des Qual­i­ty and Usabil­i­ty Lab an der TU Berlin zu Hochrisiko-KI-Anwen­dun­gen und entwick­eln KI-gestützte Sys­teme zur intel­li­gen­ten Entschei­dung­sun­ter­stützung. Ihr Fokus liegt auf leis­tungsstarken, trans­par­enten und erk­lär­baren KI-Lösun­gen für Anwen­dungs­felder wie die Erken­nung von Desin­for­ma­tion und die Analyse medi­zinis­ch­er Dat­en. Im Bere­ich der natür­lichen Sprachver­ar­beitung arbeit­et die Gruppe an Schlüs­selthe­men wie erk­lär­bar­er KI, der Robus­theit großer Sprach­mod­elle (LLMs), der Mod­el­lierung von Argu­men­ta­tion­sstruk­turen sowie der Men­sch-Mas­chine-Inter­ak­tion.

Dr. Oliv­er Eber­le ist Post­dok­torand in der Machine Learn­ing Group des Berlin Insti­tute for the Foun­da­tions of Learn­ing and Data (BIFOLD) an der TU Berlin. In sein­er Forschung wid­met er sich vor allem der erk­lär­baren Kün­stlichen Intel­li­genz sowie Nat­ur­al Lan­guage Pro­cess­ing und deren Anwen­dun­gen in den Wis­senschaften, wie den Dig­i­tal Human­i­ties (zum Beispiel der com­put­ergestützten Textver­ar­beitung) und der Kog­ni­tion­swis­senschaft. Er fokussiert sich dabei beson­ders auf die Inter­pretier­barkeit der Mod­elle und entwick­elt Meth­o­d­en zum besseren Ver­ständ­nis der zugrun­deliegen­den Mech­a­nis­men von Large Lan­guage Mod­els (LLM).

1. Wie unter­schei­den sich die Konzepte von DeepSeek und Chat­G­PT?

Schmitt und Feld­hus: DeepSeek ste­ht für Open-Source-Trans­parenz und Effizienz, während Chat­G­PT auf mas­sive Rechen­leis­tung und Skalierung set­zt. Ersteres ermöglicht Anpas­sung und niedrigere Kosten, let­zteres bietet opti­mierte Per­for­mance, bleibt aber pro­pri­etär und ressourcenin­ten­siv. Man muss allerd­ings sehen, dass DeepSeek nicht 100 Prozent Open-Source ist, denn zum Beispiel sind nicht alle Train­ings­dat­en bekan­nt, die in das Mod­ell hineinge­flossen sind. Die Ver­füg­barkeit der Mod­ell­pa­ra­me­ter hinge­gen und die deut­lich offenere Kom­mu­nika­tion seit­ens DeepSeek erlaubt es Ini­tia­tiv­en der Open-Source-Com­mu­ni­ty wie zum Beispiel „Open-R1“ die Repro­duk­tion des Mod­ells in Angriff zu nehmen und dabei auf viel weniger Ressourcen zurück­greifen zu müssen im Ver­gle­ich zur riesi­gen und teuren Infra­struk­tur von Ope­nAI, Microsoft und anderen.

Eber­le: DeepSeek ist inte­gri­ert in die „Hug­gin­face Com­mu­ni­ty“, eine Plat­tform, die bere­its Hun­derte von Open-Source-Mod­ellen und Quell­code der Mod­elle ver­füg­bar macht und eine wichtige Rolle in der Ver­füg­barkeit, Zugänglichkeit und Trans­parenz von LLMs sowohl in der Forschung als auch der Indus­trie spielt. DeepSeek ver­wen­dete in der Ver­gan­gen­heit bere­its andere Open-Source-Mod­elle (zum Beispiel das Lla­ma-Mod­ell von Meta) als Grund­lage (zum Beispiel bei „DeepSeek-R1-Dis­till-Lla­ma-70b“). Dies spart Rechenaufwand, da die Des­til­la­tion von Mod­ellen deut­lich weniger rechen­in­ten­siv ist als das Trainieren eines neuen Mod­ells von Grund auf. DeepSeek veröf­fentlicht detail­lierte Beschrei­bun­gen und tech­nis­che Reporte sein­er Mod­elle und beschreibt hierin auch Neg­a­tiv-Resul­tate. Dies ist ein hil­fre­ich­er Beitrag für die Open-Source-Com­mu­ni­ty, weil so die Verbesserung von kün­fti­gen offe­nen LLM-Sys­te­men vor­ange­bracht wird. Chat­G­PT ist im Ver­gle­ich pro­pri­etär und nur das Inter­face ist zugänglich, die genaue Spez­i­fika­tion des Mod­ells und die trainierten Para­me­ter sind nicht im Detail bekan­nt oder offen zugänglich. Der Code zum Trainieren sowie spez­i­fis­che Daten­sätze wer­den meines Wis­sens nach wed­er von DeepSeek noch Chat­G­PT veröf­fentlicht.

2. Arbeit­en Sie bere­its mit anderen Open Source Large Lan­guage Mod­ellen (LLMs)?

Schmitt und Feld­hus: Wir arbeit­en viel mit unter­schiedlichen LLMs wie zum Beispiel LLa­Ma, Mis­tral, Qwen, Bloom, Vicu­na und haben auch ange­fan­gen, mit DeepSeek zu exper­i­men­tieren. Diese Open-Source-Mod­elle set­zen wir gezielt in ver­schiede­nen Anwen­dungs­bere­ichen ein. Ein beson­der­er Fokus liegt auf der Desin­for­ma­tion­serken­nung, wo wir LLMs nutzen, um Nar­ra­tive in dig­i­tal­en Medi­en zu analysieren, Falschin­for­ma­tio­nen aufzudeck­en und Erk­lärun­gen für erkan­nte Fehlin­for­ma­tio­nen bere­itzustellen. Wir set­zen LLMs auch für die Anonymisierung und Ver­ar­beitung medi­zinis­ch­er Dat­en in gemein­samen Pro­jek­ten mit der Char­ité ein.

Eber­le: Wir arbeit­en mit ver­schiede­nen Mod­ellen, zum Beispiel Lla­ma, Mis­tral, Gem­ma, Qwen, Mam­ba und wir fokussieren uns dabei beson­ders auf die Inter­pretier­barkeit und entwick­eln Meth­o­d­en zum besseren Ver­ständ­nis der zugrun­deliegen­den Mech­a­nis­men von LLMs.

3. Wie unter­stützt der Open-Source-Ansatz bei Large Lan­guage Mod­ellen konkret Ihre Forschun­gen? Wird Deepseek Ihre Forschung noch weit­er voran­brin­gen?

Schmitt und Feld­hus: Ein Open-Source-Ansatz bei LLMs ermöglicht uns, Mod­elle gezielt für unsere Forschung anzu­passen. Durch offe­nen Zugang kön­nen wir Trans­parenz gewährleis­ten und spez­i­fis­che Architek­tu­ran­pas­sun­gen vornehmen. Zudem kön­nen wir so Mod­elle evaluieren, sie weit­er­en­twick­eln und in Men­sch-KI-Prozesse effek­tiv­er inte­gri­eren. DeepSeek kön­nte unsere Forschung weit­er voran­brin­gen, da es effizien­tere Model­lar­chitek­turen und neue Train­ingsan­sätze bietet und diese auf Rech­n­ern der TU Berlin repro­duzier­bar macht. Beson­ders span­nend sind poten­zielle Verbesserun­gen bei der Ressourcenef­fizienz, aber auch in der mehrsprachi­gen Ver­ar­beitung und der Adap­tier­barkeit für spez­i­fis­che Domä­nen, die unsere beste­hen­den Meth­o­d­en ergänzen und opti­mieren kön­nten.

Eber­le: DeepSeek rei­ht sich ein in andere Open-Source-Mod­ell­fam­i­lien (Lla­ma, Mis­tral, Qwen und so weit­er) und ermöglicht es uns, Aus­sagen über eine bre­it­ere Menge an LLMs zu machen. Die Struk­tur dieser Mod­elle ist weitest­ge­hend ver­gle­ich­bar und unter­schei­det sich vor allem durch den Train­ingsansatz und die ver­wen­de­ten Daten­sätze. DeepSeek ermöglicht uns nun Zugang zu einem Mod­ell mit state-of-the-art Fähigkeit­en in logis­chem Denken (rea­son­ing capa­bil­i­ties), was zu neuen Ein­blick­en in das Lösen kom­plex­er Auf­gaben durch LLMs führen kön­nte.

4. Warum sind mit dem Erfolg/Misserfolg von KI auch Chipher­steller wie NVIDIA verknüpft?

Schmitt und Feld­hus: Der Erfolg oder Mis­ser­folg von KI ist eng mit Chipher­stellern wie NVIDIA verknüpft, weil mod­erne KI-Mod­elle enorme Rechen­leis­tung benöti­gen, die haupt­säch­lich durch spezial­isierte GPUs (Graph­ics Pro­cess­ing Units) und KI-Beschle­u­niger bere­it­gestellt wird. NVIDIA ist führend in diesem Bere­ich mit leis­tungsstarken Chips wie der H100- und A100-Serie, die speziell dafür entwick­elt wur­den, kün­stliche Intel­li­genz zu trainieren und ihre Ergeb­nisse schnell bere­itzustellen. Dazu bietet NVIDIA mit CUDA auch die passende Soft­ware an, die diese Berech­nun­gen effizient ermöglicht. Wenn KI-Tech­nolo­gien flo­ri­eren, steigt natür­lich die Nach­frage nach diesen Chips stark an – Unternehmen, Forschung­sein­rich­tun­gen und Cloud-Anbi­eter investieren mas­siv in GPU-Clus­ter. Dies treibt den Umsatz und den Aktienkurs von NVIDIA in die Höhe. Umgekehrt würde ein Rück­gang der KI-Nach­frage oder tech­nol­o­gis­che Ver­schiebun­gen hin zu alter­na­tiv­en Architek­turen (wie wir das jet­zt mit DeepSeek R1/V3 beobacht­en kön­nen) die Abhängigkeit von NVIDIA ver­ringern und deren Geschäft zum Teil neg­a­tiv bee­in­flussen. Die dop­pelte Monopol­stel­lung NVIDIAs – Hard­ware und Soft­ware – macht es hinge­gen schw­er, die KI-Erfolge von dem Unternehmen zu entkop­peln. Solange auch DeepSeek GPUs von NVIDIA beziehungsweise CUDA benutzt, ist NVIDIA aus dem KI-Diskurs nicht wegzu­denken. Kurz gesagt: Die Hard­ware-Entwick­lung und der Erfolg von KI sind sym­bi­o­tisch – Fortschritte in KI treiben die Chipin­dus­trie an, während leis­tungs­fähigere Chips neue KI-Mod­elle ermöglichen.

5. Wussten alle in der Com­mu­ni­ty schon von der großen Durch­schlagkraft des neuen, chi­ne­sis­chen LLM?

Schmitt und Feld­hus: Ja, es war abse­hbar, dass Chi­na ver­stärkt in die Entwick­lung leis­tungs­fähiger LLMs investiert. Die Fortschritte von DeepSeek und anderen chi­ne­sis­chen Mod­ellen kamen nicht aus dem Nichts – bere­its in den let­zten Jahren gab es enorme Investi­tio­nen und strate­gis­che Ini­tia­tiv­en im KI-Sek­tor. Daher ist DeepSeek keine große Über­raschung, son­dern eine natür­liche Weit­er­en­twick­lung, ressourcenef­fizien­tere LLMs zu erstellen. Zudem baut DeepSeek stark auf beste­hende Open-Source-Mod­ell­fam­i­lien wie LLa­MA, Mis­tral und Qwen auf und erweit­ert unsere Möglichkeit­en, eine bre­it­ere Palette an LLMs zu analysieren. Beson­ders Qwen, eben­falls ein Pro­dukt chi­ne­sis­ch­er Forschung, hat für uns schon deut­lich gemacht, dass Chi­na hier ein entschei­den­der, nicht zu unter­schätzen­der Play­er ist. Bemerkenswert an DeepSeek R1 ist, dass sich die Argu­men­ta­tions­fähigkeit deut­lich verbessert hat und uns neue Ein­blicke in die Fähigkeit von LLMs zur Lösung kom­plex­er Auf­gaben eröffnet. Das ist vor allem für schwierigere Auf­gaben mit einem höheren Kom­plex­ität­sniveau, wie die Desin­for­ma­tion­serken­nung, inter­es­sant.

Eber­le: DeepSeek ist dur­chaus bekan­nt, und dessen Vorgänger­mod­ell DeepSeek-V2 war bere­its recht erfol­gre­ich, zum Beispiel in der Gener­ierung von Code. Daher bin ich etwas über­rascht über die starke Reak­tion der Medi­en und Märk­te. DeepSeek-V3 ist klar eine beein­druck­ende tech­nis­che Leis­tung und kann dazu beitra­gen, Open-Source-Mod­elle auf eine Stufe mit den Fähigkeit­en von pro­pri­etären Mod­ellen wie Chat­G­PT zu brin­gen. DeepSeek ist den­noch im Zusam­men­hang mit der erfol­gre­ichen Entwick­lung von anderen Open-Source-LLM zu sehen.

6. Wie ist die Stel­lung von Europa auf diesem Gebi­et?

Schmitt und Feld­hus: Aktuell liegt der Fokus inner­halb der EU vor allem auf der Reg­ulierung von KI und es wer­den nicht genü­gend Ressourcen gebün­delt bere­it­gestellt, um auch nur ent­fer­nt ein Gegengewicht zu den USA oder Chi­na bilden zu kön­nen. Vor allem, wenn wir die Investi­tion­spläne wie Star­gate berück­sichti­gen, kann die EU aktuell nicht mithal­ten. Die EU kann derzeit nicht konkur­ren­zfähig bleiben, da vielver­sprechende KI-Star­tups oft von US-Unternehmen über­nom­men wer­den und/oder ihren Haupt­sitz in die USA ver­lagern. Reg­ulierun­gen und Steuern bee­in­flussen die Inno­va­tion­skraft von NLP-Unternehmen (Nat­ur­al Lan­guage Pro­cess­ing) erhe­blich inner­halb der EU. Wir sehen an der Inno­va­tions­freudigkeit von kleinen europäis­chen Labs wie Mis­tral oder Flux (Bild­gener­ierung), dass die europäis­che Forschungs­ge­mein­schaft trotz­dem an der glob­alen KI-Entwick­lung teil­nehmen möchte, auch einen recht großen Ein­fluss hat und mit mehr Investi­tio­nen diese Ambi­tio­nen befeuert wer­den kön­nen und Europa zu einem echt­en KI-Play­er auf­steigen kön­nte.

Eber­le: Europa und Deutsch­land fokussieren sich auf die Entwick­lung von ver­trauenswürdi­gen und trans­par­enten KI Meth­o­d­en. Ich habe auch den Ein­druck, dass Europa sich auf spez­i­fis­che Anwen­dun­gen von LLMs spezial­isiert, zum Beispiel LLM-Grund­la­gen­mod­elle für Anwen­dun­gen in der Medi­zin (z.B. aig­nos­tics’ RudolfV-Mod­ell zur Erken­nung von Patholo­gie-Dat­en), den Rechtswis­senschaften (Legal LLMs wie LEGAL-BERT zur Bear­beitung und Erstel­lung von Recht­s­tex­ten) oder KI-Meth­o­d­en für Quan­ten-Chemie.

7. Die Anwen­dung DeepSeek unter­liegt ja der chi­ne­sis­chen Zen­sur. Inwiefern bee­in­flussen solche Ein­schränkun­gen die Leis­tungs­fähigkeit von Large Lan­guage Mod­ellen?

Eber­le: Die Ein­schränkun­gen wer­den meist nach dem eigentlichen Mod­ell-Train­ing aufer­legt, sind also wie ein Fil­ter zu sehen, der unge­wollte Aus­gaben unter­drückt. Daher würde ich nicht grund­sät­zlich davon aus­ge­hen, dass the­menof­fene Sys­teme generell leis­tungs­fähiger sind. Falls jedoch größere Daten­men­gen bere­its vor dem Train­ing gefiltert wer­den, kön­nte das Auswirkun­gen auf die Gen­er­al­isierungs­fähigkeit dieser Mod­elle haben. Es ist hier­bei ein wichtiger Unter­schied, ob das Mod­ell keine Dat­en über sen­si­ble The­men bekommt, oder ob das Mod­ell nichts über diese sagen soll.

Weit­ere Infor­ma­tio­nen erteilen Ihnen gern:
Dr. Vera Schmitt und Dr. Nils Feld­hus:
XplaiNLP-Gruppe
Qual­i­ty and Usabil­i­ty Lab
TU Berlin
E‑Mail: vera.schmitt@tu-berlin.de, nils.feldhus@campus.tu-berlin.de
Tel.: +49 30 314–77129 (Sekre­tari­at XplaiNLP Group / Qual­i­ty and Usabil­i­ty Lab)

Dr. Oliv­er Eber­le
Machine Learn­ing Group
Berlin Insti­tute for the Foun­da­tions of Learn­ing and Data (BIFOLD)
TU Berlin
E‑Mail: oliver.eberle@tu-berlin.de
Tel.: +49 30 314–78621 (BIFOLD Coor­di­na­tion Office)

Quelle: IDW

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Klicken, um den Text zu hören