Getting your Trinity Audio player ready...

Als Bre­mer Wis­senschaftler vor fast zwei Jahrzehn­ten intel­li­gente Soft­wareagen­ten in Miniatur-Lkws steck­ten, klang das nach Sci­ence-Fic­tion. Heute bewegt sich Ware selb­st­ständig durch glob­ale Liefer­ket­ten – aber anders, als die Pio­niere es sich vorstell­ten. Eine tech­nolo­giehis­torische Spuren­suche zeigt: Die Vision war richtig, doch die Zukun­ft kam auf Wegen, die nie­mand sah. Was lehrt uns der Blick zurück über deutsche Inno­va­tion­skraft – und ihre blind­en Fleck­en?


Die Propheten von der Weser

Im Som­mer 2006, als Nokia noch Mark­t­führer war und das iPhone erst in Steve Jobs’ Kopf existierte, präsen­tierten Wis­senschaftler der Uni­ver­sität Bre­men auf dem VDE-Kongress in Aachen ein bemerkenswertes Konzept1[Beh06a] Behrens, C.; Beck­er, M.; Gehrke, J. D.; Jed­er­mann, R.; Görg, C.; Her­zog, O.; Lang, W.; Laur, R.: Ein Mul­ti­a­gen- ten­sys­tem für Selb­st­s­teuerung in der Trans­port­l­o­gis­tik. In: Fach­ta­gungs­berichte VDE Kongress 2006. Inno­va­tions for Euro- pe, Aachen, 2006, S. 29–34 Ein Mul­ti-Agen­ten­sys­tem für Selb­st­s­teuerung in der Trans­port­l­o­gis­tik. Online abruf­bar. In einem Demon­stra­tor im Maßstab 1:8 kurvten Miniatur-Kühl-Lkws zwis­chen neun­zehn deutschen Städten umher – ges­teuert nicht von Men­schen, son­dern von Soft­wareagen­ten, die autonom Trans­portaufträge ver­han­del­ten, Routen opti­mierten und auf Störun­gen reagierten.

Das Sys­tem war Teil des Son­der­forschungs­bere­ichs 637 “Selb­st­s­teuerung logis­tis­ch­er Prozesse”, den die Deutsche Forschungs­ge­mein­schaft mit Mil­lio­nen­be­trä­gen förderte. Die Vision: Das Gut, das sich selb­st pro­duziert und zum Kun­den ver­schickt. Het­er­ar­chie statt Hier­ar­chie. Dezen­trale Intel­li­genz statt zen­traler Pla­nung. Mobile Agen­ten, die mit der physis­chen Ware migri­eren und deren Qual­ität überwachen.

Für dama­lige Ver­hält­nisse war das radikal. Während die Logis­tik­branche noch mit Excel-Tabellen und Tele­fon arbeit­ete, sprachen die Bre­mer von OWL-Ontolo­gien, FIPA-Pro­tokollen und migri­eren­den Bew­er­tungsagen­ten. Sie verknüpften RFID-Tags mit draht­losen Sen­sor­net­zen, baut­en ein Kom­mu­nika­tion­s­gate­way, das zwis­chen WLAN, UMTS und GPRS umschal­tete, und imple­men­tierten die Agen­ten auf der JADE-Plat­tform.

Die Frage ist heute, fast zwanzig Jahre später: Hat­ten sie recht?

Der verblüf­fende Befund

Die kurze Antwort: Ja und nein. Oder präzis­er: Ja in der Vision, nein in der Umset­zung.
Selb­st­s­teuerung in der Logis­tik ist 2025 keine Forschungs­fan­tasie mehr, son­dern Indus­trie-Real­ität. Der glob­ale Markt für Mul­ti-Agen­ten­sys­teme wuchs von 7,2 Mil­liar­den Dol­lar 2024 auf prog­nos­tizierte 375,4 Mil­liar­den bis 2034 – eine Wach­s­tum­srate von 48,6 Prozent jährlich. Ama­zon, DHL, Wal­mart: Sie alle set­zen auf autonome Koor­di­na­tion in ihren Liefer­ket­ten. Ware steuert sich tat­säch­lich selb­st. Die het­er­ar­chis­che Rev­o­lu­tion hat stattge­fun­den.

Aber sie kam anders.

Die Bre­mer Forsch­er hat­ten 2006 regel­basierte Soft­wareagen­ten entwick­elt, die nach fest­gelegten Pro­tokollen kom­mu­nizierten. Heute koor­dinieren sich logis­tis­che Sys­teme durch Deep-Learn­ing-Algo­rith­men, die aus Mil­lio­nen Trans­portvorgän­gen gel­ernt haben. Sie hat­ten an migri­erende Agen­ten auf RFID-Tags gedacht. Heute laufen die Entschei­dungssys­teme in glob­alen Cloud-Infra­struk­turen und steuern dig­i­tale Zwill­inge der physis­chen Waren­ströme.

Der entschei­dende Unter­schied: Was 2006 noch als expliz­it pro­gram­mierte Intel­li­genz konzip­iert wurde, ist heute emer­gente, selb­stler­nende KI. Die Bre­mer baut­en Agen­ten, die Ontolo­gien abgle­ichen. Heutige Sys­teme basieren auf Large Lan­guage Mod­els, die natür­lich­sprachig ver­han­deln und kon­textab­hängig ler­nen.

Die drei großen Über­raschun­gen

Die erste Über­raschung ist die Geschwindigkeit. Das Bre­mer Pro­jekt rech­nete in Forscherdekaden: zehn, fün­fzehn Jahre bis zur ersten indus­triellen Anwen­dung. Tat­säch­lich explodierte der Markt etwa ab 2020. Der Grund: Cloud Com­put­ing und Deep Learn­ing ermöglicht­en einen Quan­ten­sprung, den 2006 nie­mand auf dem Radar hat­te. Die Tech­nolo­gie machte inner­halb weniger Jahre Sprünge, für die man Jahrzehnte einge­plant hat­te.

Die zweite Über­raschung: die Bedeu­tung dig­i­taler Zwill­inge. Im Bre­mer Konzept gibt es sie nicht. Der Fokus lag auf der physis­chen Ware und ihrem Soft­wareagen­ten. Heute ist der dig­i­tale Zwill­ing die zen­trale Ebene zwis­chen physis­ch­er und virtueller Welt. Unternehmen opti­mieren erst die dig­i­tale Repräsen­ta­tion, dann bauen sie das physis­che Pen­dant – ein Par­a­dig­men­wech­sel, den 2006 nie­mand voraus­sah. Der Markt für Sup­ply-Chain-Dig­i­tal-Twins erre­ichte 2024 bere­its 12,8 Mil­liar­den Dol­lar und wächst mit über 40 Prozent jährlich.

Die dritte Über­raschung ist die gerin­gere Rolle spezial­isiert­er Agen­ten­plat­tfor­men. JADE, FIPA-Pro­tokolle, spezial­isierte Ontolo­gie-Rea­son­er – der ganze Werkzeugkas­ten der klas­sis­chen Agen­ten­forschung spielt heute eine Neben­rolle. Stattdessen: Cloud-native Architek­turen, Con­tain­er-Orchestrierung, Machine-Learn­ing-Pipelines. Die Selb­st­s­teuerung kam nicht aus der KI-Forschung der frühen 2000er, son­dern aus dem Zusam­men­spiel von Cloud, Data Sci­ence und Deep Learn­ing.

Der blinde Fleck: Warum nie­mand die KI-Rev­o­lu­tion sah

Hier offen­bart sich ein tiefer­liegen­des Muster deutsch­er Forschung und Inno­va­tion. Die Bre­mer Wis­senschaftler dacht­en in Sys­te­men, Architek­turen, Pro­tokollen. Das war ihre Stärke – und ihre Schwäche.
Sie konzip­ierten ein ele­gantes Sys­tem: Agen­ten mit Ziel­funk­tio­nen, Dien­stev­er­mit­tler für das Match­ing, Con­tract-Net-Pro­tokolle für Ver­hand­lun­gen, OWL-Ontolo­gien für seman­tis­che Inter­op­er­abil­ität. Alles logisch durch­dacht, for­mal spez­i­fiziert, sauber imple­men­tiert. Deutsch­er Inge­nieur­sansatz in Rein­form.

Was fehlte, war die Vorstel­lung, dass Maschi­nen ler­nen kön­nten, statt pro­gram­miert zu wer­den. Deep Learn­ing existierte 2006 the­o­retisch, aber nie­mand nahm es ernst. Geof­frey Hin­tons Durch­bruch mit Deep Belief Net­works kam erst 2006, Ima­geNet und AlexNet lagen noch Jahre ent­fer­nt. Die Idee, dass neu­ronale Net­ze kom­plexe Logis­tikentschei­dun­gen tre­f­fen kön­nten, schien absurd.

Eben­so unter­schätzt: die Cloud. Das Bre­mer Sys­tem dachte in lokalen Agen­ten­plat­tfor­men auf jedem Lkw, jedem Lager. Die Idee, dass man Mil­liar­den von Entschei­dung­sprozessen in glob­alen Rechen­zen­tren zen­tral­isieren und trotz­dem dezen­tral steuern kön­nte, war konzep­tionell nicht vorge­se­hen. Cloud-Com­put­ing steck­te 2006 in den Kinder­schuhen – Ama­zon Web Ser­vices startete ger­ade.

Die Lek­tion: Selb­st visionäre Forschung hat blinde Fleck­en. Sie extrapoliert aus bekan­nten Par­a­dig­men. Par­a­dig­men­wech­sel – hier von regel­basiert­er KI zu maschinellem Ler­nen, von lokalen zu Cloud-Architek­turen – sind das, was selb­st gute Forsch­er über­rascht.

Was richtig war (und bleibt)

Und doch: Die konzep­tionellen Grund­la­gen der Bre­mer Arbeit haben sich als richtig erwiesen.
Het­er­ar­chie über Hier­ar­chie: Die Ver­lagerung der Entschei­dung vom zen­tralen Plan­er zum einzel­nen logis­tis­chen Objekt ist heute Stan­dard. Kein Logis­tikkonz­ern set­zt noch auf zen­trale Großrech­n­er, die jeden Lkw dirigieren. Stattdessen: verteilte Sys­teme, die lokal opti­mieren und glob­al koor­dinieren.

Autonomie der Objek­te: Dass Ware “intel­li­gent” wird und eigene Ziele ver­fol­gt, ist keine Meta­pher mehr. Mod­erne IoT-Sen­soren über­mit­teln kon­tinuier­lich Zus­tands­dat­en, KI-Sys­teme bew­erten in Echtzeit die Qual­ität, und automa­tisierte Entschei­dungssys­teme lösen Umleitun­gen oder Not­fall­maß­nah­men aus.

Mobil­ität der Infor­ma­tion: Der Gedanke, dass Entschei­dungsen­titäten der physis­chen Ware fol­gen müssen, war richtig – nur die Umset­zung ist anders. Statt migri­eren­der Agen­ten haben wir heute per­sis­tente dig­i­tale Zwill­inge in der Cloud, die die Ware virtuell begleit­en.

Qual­ität­süberwachung: Die Inte­gra­tion von Sen­sor­net­zen zur kon­tinuier­lichen Qual­itätsmes­sung verderblich­er Waren ist heute Indus­tri­e­s­tandard. Die Bre­mer lagen richtig mit der Erken­nt­nis, dass Selb­st­s­teuerung Echtzeit­dat­en über den Waren­zu­s­tand benötigt.

Die Ironie: Die konzep­tionelle Architek­tur war visionär, aber die tech­nol­o­gis­che Imple­men­tierung musste kom­plett neu gedacht wer­den, als Deep Learn­ing und Cloud Com­put­ing reif wur­den.

Der deutsche Inno­va­tion­s­modus

Diese Geschichte wirft Licht auf ein größeres Muster. Deutsche Forschung und Entwick­lung zeich­net sich tra­di­tionell durch Sys­tem­denken, Gründlichkeit und Inge­nieur­sexzel­lenz aus. Man baut durch­dachte Architek­turen, spez­i­fiziert Schnittstellen, stan­dar­d­isiert Pro­tokolle. Man denkt in Regel­w­erken, Nor­men, langfristig sta­bilen Struk­turen.

Das ist eine Stärke – und in bes­timmten Phasen tech­nol­o­gis­ch­er Entwick­lung entschei­dend. Die Bre­mer legten 2006 konzep­tionelle Grund­la­gen, die heute, in ander­er Form, Real­ität sind. Ihr Denken in selb­st­s­teuern­den Sys­te­men war weg­weisend.

Aber es zeigt auch eine Schwäche: die Schwierigkeit, dis­rup­tive Tech­nolo­giesprünge vorherzuse­hen und anzunehmen, wenn sie aus anderen Par­a­dig­men kom­men. Deep Learn­ing kam nicht aus der deutschen Forschungstra­di­tion. Cloud Com­put­ing wurde von amerikanis­chen Inter­netkonz­er­nen entwick­elt. Large Lan­guage Mod­els ent­standen bei Ope­nAI und Google, nicht bei Siemens oder SAP.

Deutsche Forschung konzip­iert Sys­teme. Amerikanis­che Tech­nolo­giekonz­erne exper­i­men­tieren mit Dat­en. Wenn sich das Par­a­dig­ma ver­schiebt – von Regeln zu Ler­nen, von Logik zu Sta­tis­tik, von Architek­tur zu Emer­genz – dann gerät der deutsche Ansatz ins Hin­tertr­e­f­fen.

Das ist keine pauschale Kri­tik. Es ist eine Beobach­tung über kom­ple­men­täre Stärken. Deutsche Inge­nieurskun­st und amerikanis­che Exper­i­men­tier­freude kön­nten sich ide­al ergänzen. Tat­säch­lich aber entste­hen oft par­al­lele Wel­ten: Deutsche Forschung entwick­elt SFB-Pro­jek­te, während Sil­i­con Val­ley skaliert.

Die Lek­tion für heute

Was lehrt uns das für die aktuelle Sit­u­a­tion? Deutsch­land disku­tiert über KI-Sou­veränität, europäis­che Cloud-Infra­struk­turen, die Reg­ulierung von KI-Sys­te­men. Man will Stan­dards set­zen, Architek­turen definieren, Gov­er­nance-Struk­turen auf­bauen.

Das ist wichtig. Aber die Geschichte des Bre­mer Logis­tikpro­jek­ts mah­nt zur Demut: Die näch­ste tech­nol­o­gis­che Dis­rup­tion kommt ver­mut­lich wieder aus ein­er Ecke, die wir nicht im Blick haben. Vielle­icht Quan­ten­com­put­ing. Vielle­icht neue KI-Par­a­dig­men jen­seits von Deep Learn­ing. Vielle­icht Tech­nolo­gien, die noch gar nicht existieren.

Die Her­aus­forderung ist nicht, die per­fek­te Architek­tur für die heutige Tech­nolo­gie zu bauen. Die Her­aus­forderung ist, adap­tive Sys­teme zu schaf­fen, die auch mit zukün­fti­gen Par­a­dig­men­wech­seln zurechtkom­men. Sys­teme, die ler­nen kön­nen – nicht nur im Sinne von Machine Learn­ing, son­dern im Sinne von insti­tu­tionellem Ler­nen, von Inno­va­tions­fähigkeit, von Offen­heit für das Uner­wartete.

Epi­log: Die näch­ste Welle

Heute, 2025, ste­ht die näch­ste Welle bevor. Mul­ti-Agen­ten­sys­teme wer­den mit Large Lan­guage Mod­els kom­biniert. Dig­i­tale Zwill­inge ver­schmelzen mit gen­er­a­tiv­er KI. Autonome Sys­teme erre­ichen Lev­el 5 in geschlosse­nen Umge­bun­gen. Quan­ten­com­put­ing ver­spricht weit­ere Sprünge in Opti­mierungsal­go­rith­men.

Die Bre­mer Forsch­er von 2006 wür­den vieles wieder­erken­nen: dezen­trale Koor­di­na­tion, autonome Entschei­dun­gen, mobile Intel­li­genz. Aber die Umset­zung würde sie verblüf­fen. Keine JADE-Agen­ten, son­dern neu­ronale Net­ze mit Mil­liar­den Para­me­tern. Keine lokalen Plat­tfor­men, son­dern Edge-Cloud-Hybrid-Architek­turen. Keine star­ren Ontolo­gien, son­dern emer­gente Seman­tik aus Sprach­mod­ellen.

Die Frage ist: Wer­den wir 2045 zurück­blick­en auf die Mul­ti-Agen­ten­sys­teme von 2025 und denken:

“Inter­es­sant, aber sie haben die entschei­dende Entwick­lung ver­passt”?

Ver­mut­lich ja. Und das ist keine Schande. Es ist die Natur expo­nen­tieller tech­nol­o­gis­ch­er Entwick­lung. Die Kun­st beste­ht darin, robust genug zu bauen, um mit dem Unvorherge­se­henen zurechtzukom­men – und mutig genug, das Alte aufzugeben, wenn das Neue bess­er funk­tion­iert.

Die Bre­mer Wis­senschaftler haben das Richtige getan: Sie haben eine Vision for­muliert, ein Sys­tem gebaut, Grund­la­gen gelegt. Dass die Zukun­ft anders kam, als sie dacht­en, schmälert ihre Leis­tung nicht. Es zeigt nur: Die Zukun­ft über­rascht immer. Auch die, die sie erfind­en wollen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert