AT&T ver­ar­beit­et täglich acht Mil­liar­den Token mit KI-Sys­te­men. Diese Zahl ist mehr als ein Bench­mark – sie ist ein Symp­tom für einen organ­isatorischen Reife­prozess, der in den meis­ten Unternehmen noch ausste­ht. Was AT&T dabei zeigt, ist kein tech­nis­ches Wun­der, son­dern die Kon­se­quenz ein­er unspek­takulären Ein­sicht: Skalier­bare KI ist primär ein Prob­lem der Organ­i­sa­tion und Ökonomie, nicht der Algo­rith­men.


Von der Exper­i­men­tier­phase zur Engi­neer­ing-Diszi­plin

Die meiste Enter­prise-KI befind­et sich noch in einem Zus­tand pro­duk­tiv­er Unklarheit: Pilot­pro­jek­te häufen sich, Ergeb­nisse bleiben schw­er ver­gle­ich­bar, und die Kosten steigen schneller als der Nutzen. AT&T hat diesen Zus­tand hin­ter sich gelassen – nicht durch einen großen strate­gis­chen Sprung, son­dern durch die schrit­tweise Behand­lung von KI als Infra­struk­tur18 bil­lion tokens a day forced AT&T to rethink AI orches­tra­tion — and cut costs by 90%.

Der entschei­dende konzeptuelle Schritt war die Anwen­dung von FinOps-Logik auf Token-Kosten. Token sind keine abstrak­ten Rech­enein­heit­en, son­dern Betrieb­skosten wie Band­bre­ite oder Serverka­paz­ität. Sobald ein Unternehmen begin­nt, sie so zu behan­deln – zu messen, zu bud­getieren, zu opti­mieren –, verän­dert sich die gesamte Steuerungslogik. Nicht jede Anfrage braucht ein großes Mod­ell. Nicht jede Auf­gabe recht­fer­tigt den gle­ichen Ressourcenein­satz. Effizienz wird kalkulier­bar.

Viele kleine Mod­elle statt eines großen

AT&Ts Chief Data Offi­cer Andy Markus for­muliert das Kern­prinzip direkt: Viele kleine, domä­nen­spez­i­fisch trainierte Mod­elle sind in ihrem jew­eili­gen Bere­ich präzis­er und erhe­blich gün­stiger als ein gen­er­al­is­tis­ches Groß­mod­ell. Das klingt triv­ial, ist aber organ­isatorisch voraus­set­zungsre­ich.

Es erfordert erstens eine klare Auf­gaben­analyse:

Erstens, welche Prozesse sind repet­i­tiv genug, um ein spezial­isiertes Mod­ell zu recht­fer­ti­gen?

Zweit­ens eine Architek­turentschei­dung: Wie wer­den diese Mod­elle koor­diniert?

AT&T set­zt auf eine hier­ar­chis­che Struk­tur – soge­nan­nte Super-Agents orchestri­eren spezial­isierte Work­er-Agents und übernehmen das Rout­ing einge­hen­der Auf­gaben.

LangChain dient dabei als tech­nis­che Basis, ist aber let­ztlich aus­tauschbar. Was nicht aus­tauschbar ist: die organ­isatorische Diszi­plin, diese Schicht­en sauber zu tren­nen und zu pfle­gen.

Das Ergeb­nis sind Kostensenkun­gen von bis zu 90 % gegenüber einem Ansatz, der alle Anfra­gen durch das­selbe Mod­ell leit­et. Diese Zahl ist beein­druck­end, aber sie ergibt sich nicht aus der Tech­nolo­gie selb­st – sie ergibt sich aus der Entschei­dung, Kom­plex­ität zu organ­isieren statt zu ver­wal­ten.

„Ask AT&T” als insti­tu­tionelle Infra­struk­tur

Der interne Assis­tent „Ask AT&T” wird täglich von mehr als 100.000 Mitar­beit­ern genutzt. Das ist keine Adop­tion im Sinne von Begeis­terung – das ist Nutzung im Sinne von Nor­mal­ität. Die Plat­tform ist Teil des Arbeit­sall­t­ags gewor­den, nicht weil sie beson­ders ele­gant ist, son­dern weil sie ver­lässlich und bre­it ver­füg­bar ist.

Net­zw­erk-Engi­neers lösen damit eigen­ständig tech­nis­che Prob­leme, erstellen Tick­ets und erhal­ten Code-Vorschläge – unter men­schlich­er Auf­sicht, aber ohne ständi­ge Eskala­tion. Entwick­lungszyklen, die früher sechs Wochen dauerten, wur­den auf zwanzig Minuten verkürzt. Diese Zahlen markieren nicht die Gren­ze des tech­nisch Möglichen, son­dern die Gren­ze des organ­isatorisch Gereiften.

Was AT&T hier aufge­baut hat, ist eine Form insti­tu­tioneller Infra­struk­tur: ein Sys­tem, das nicht auf Einzelleis­tun­gen einzel­ner Mitar­beit­er angewiesen ist, son­dern organ­i­sa­tionales Wis­sen repro­duzier­bar und skalier­bar macht.

Der prag­ma­tis­che, nicht der ide­ale Weg

Es wäre falsch, AT&Ts Ansatz als Blau­pause für alle zu ver­ste­hen. Die Voraus­set­zun­gen sind spez­i­fisch: eine zen­tral­isierte CDO-Funk­tion mit realem Entschei­dungs­man­dat, eine bere­its vorhan­dene Daten­strate­gie, eine homo­gene Mitar­beit­er­ba­sis auf ein­er Plat­tform, und – nicht zulet­zt – die schiere Größe, die Investi­tio­nen in spezial­isierte Mod­elle über­haupt recht­fer­tigt.

Was AT&T gefun­den hat, ist kein ide­al­er Weg. Es ist ein prag­ma­tis­ch­er: eine Architek­tur, die unter realen Bedin­gun­gen funk­tion­iert, Kosten kon­trol­liert, und schrit­tweise aus­ge­baut wer­den kann. Kein Konz­ern-KI-Labor, son­dern Inge­nieurs­diszi­plin im Betrieb.

Was bleibt

Die eigentliche Lek­tion ist nicht tech­nis­ch­er, son­dern ökonomis­ch­er Natur: Skalier­bare KI entste­ht dort, wo Token-Kosten wie Betrieb­skosten behan­delt wer­den, wo Auf­gaben klar klas­si­fiziert sind, und wo Orchestrierung als organ­isatorische Auf­gabe ver­standen wird – nicht als Fea­ture eines Mod­ells.

AT&T zeigt, dass der Über­gang von Exper­i­menten zu diszi­plin­iertem Engi­neer­ing möglich ist. Er ist nicht automa­tisch, nicht schnell, und nicht voraus­set­zungs­los. Aber er ist mach­bar – und das ist die eigentlich inter­es­sante Nachricht.

Ralf Keu­per 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert