Getting your Trinity Audio player ready...

1832 for­mulierte Charles Bab­bage das Prinzip, das bis heute jede Automa­tisierungswelle prägt: Kom­plexe Arbeit in ein­fache Schritte zer­legen und mas­chin­isieren. Von Tay­lors Sci­en­tif­ic Man­age­ment über Wieners Kyber­netik, von Neu­manns Com­put­er und Diebolds Automa­tion bis zu den ERP-Sys­te­men der 1990er, Indus­trie 4.0, Cobots und humanoiden Robot­ern – jede Gen­er­a­tion wieder­holt densel­ben Fehler: Sie denkt Tech­nolo­gie und liefert das Soziale nach. Die Vol­vo-Exper­i­mente in Kalmar und Udde­val­la zeigten, dass Alter­na­tiv­en möglich sind – und scheit­erten an ökonomis­chen Zwän­gen. Shoshana Zuboff warnte 1988, dass dieselbe Tech­nolo­gie Men­schen erset­zen oder ermächti­gen kann – fast alle Unternehmen wählten Ersatz. Busi­ness Process Reengi­neer­ing scheit­erte zu 50–70%, weil es Organ­i­sa­tio­nen als Maschi­nen behan­delte. Heute ver­spricht gen­er­a­tive KI in Verbindung mit humanoi­der Robotik die voll­ständi­ge Sub­sti­tu­tion men­schlich­er Arbeit – kör­per­lich und kog­ni­tiv. Die Tavi­s­tock-Forsch­er wussten schon in den 1950ern, was wir immer noch nicht beherzi­gen: Unternehmen sind keine Maschi­nen, son­dern sozio-tech­nis­che Sys­teme. Wer das ignori­ert, zahlt den Preis – in gescheit­erten Pro­jek­ten, ver­loren­em Erfahrungswis­sen und zer­störten sozialen Struk­turen.


Man­age­ment Sum­ma­ry

Kern­these

Die Imple­men­tierung gen­er­a­tiv­er KI und humanoi­der Robot­er in Unternehmen fol­gt impliz­it ein­er 200 Jahre alten Logik: Arbeit in Teilschritte zer­legen, die ein­fachen automa­tisieren, Effizienz max­imieren. Diese Logik – von Bab­bage 1832 for­muliert, von Tay­lor sys­tem­a­tisiert, von Wiener kyber­netisch fundiert, von Diebold auf selb­streg­ulierende Sys­teme erweit­ert – hat einen sys­tem­a­tis­chen blind­en Fleck: Sie behan­delt Organ­i­sa­tio­nen als tech­nis­che Sys­teme und über­sieht, dass sie immer auch soziale Sys­teme sind.

Die Tavi­s­tock-Schule zeigte bere­its vor 70 Jahren: Rein tech­nis­che Opti­mierung zer­stört oft genau die sozialen Struk­turen, die Organ­i­sa­tio­nen funk­tions­fähig machen. Die Vol­vo-Exper­i­mente bewiesen, dass Alter­na­tiv­en möglich sind – und scheit­erten an ökonomis­chen Zwän­gen. Shoshana Zuboff warnte 1988, dass Tech­nolo­gie Men­schen erset­zen oder ermächti­gen kann – fast alle Unternehmen wählten Ersatz. BPR scheit­erte zu 50–70%, ERP-Ein­führun­gen ver­fehlten ihre Ziele, Indus­trie 4.0 unter­schätzt das Erfahrungswis­sen.

Gen­er­a­tive KI wieder­holt dieses Muster – nur greift sie tiefer ein als jede Tech­nolo­gie zuvor, weil sie nicht Muskelkraft oder struk­turi­erte Rou­ti­nen, son­dern unstruk­turi­erte kog­ni­tive Arbeit sub­sti­tu­iert. In Verbindung mit humanoi­der Robotik entste­ht erst­mals die tech­nis­che Möglichkeit voll­ständi­ger Sub­sti­tu­tion – kör­per­lich und geistig. Die Frage, die sich seit den Kyber­netik­ern der 1950er Jahre stellt, kehrt mit neuer Dringlichkeit zurück: Was bleibt dem Men­schen?

Zen­trale Ein­sicht­en

Das Bab­bage-Prinzip lebt weit­er

Die Logik hin­ter KI-Work­flows ist dieselbe wie vor 200 Jahren: Kom­plexe Arbeit in Teilauf­gaben zer­legen, die ein­fachen maschinell erledi­gen, nur für die wirk­lich anspruchsvollen Men­schen ein­set­zen. Was Bab­bage für kör­per­liche Arbeit for­mulierte, wird heute auf kog­ni­tive Arbeit ange­wandt.

Selb­st tech­nis­che Inno­va­tion ist ein sozialer Prozess

John von Neu­mann, der Architekt des mod­er­nen Com­put­ers, war nicht nur Math­e­matik­er, son­dern vor allem ein beg­nade­ter Wis­senschafts­man­ag­er. Er brachte The­o­retik­er, Inge­nieure und Prak­tik­er zusam­men und über­set­zte zwis­chen ihren Wel­ten. Der Dig­i­tal­com­put­er – die Grund­lage aller späteren Automa­tisierung – ent­stand nicht aus rein­er The­o­rie, son­dern aus einem hochgr­a­dig sozialen Prozess der Zusam­me­nar­beit.

Die Ironie: Die Mas­chine, die später men­schliche Arbeit automa­tisieren sollte, war selb­st das Pro­dukt unau­toma­tisier­bar­er men­schlich­er Koop­er­a­tion.

Rück­kop­plung ist fun­da­men­tal – aber nicht aus­re­ichend

Nor­bert Wieners Kyber­netik lieferte das Konzept der Feed­back-Schleife: Sys­teme, die ihren Out­put messen und ihr Ver­hal­ten entsprechend anpassen. Dieses Konzept ist grundle­gend für jede Form von Automa­tion. Aber die Kyber­netik zeigt auch die Gren­zen: Die Par­al­lele zwis­chen Mas­chine und Organ­is­mus ist begren­zt. Lebende Sys­teme – und Organ­i­sa­tio­nen sind lebende Sys­teme – funk­tion­ieren anders als Ther­mostate. Die Kyber­netik wurde zudem zum Mythos über­formt, der mehr ver­sprach, als die Tech­nik hal­ten kon­nte. Ähn­lich­es geschieht heute mit “Kün­stlich­er Intel­li­genz”.

Diebolds War­nun­gen wur­den ignori­ert

John Diebold, der den Begriff “Automa­tion” prägte, warnte bere­its in den 1950ern: Die tech­nis­che Imple­men­tierung ist das Ein­fache – die organ­isatorische und soziale Anpas­sung das Schwierige. Ohne bewusste Gestal­tung führt Automa­tisierung zu Ver­w­er­fun­gen, die den tech­nis­chen Nutzen aufzehren. Diese War­nung ist heute aktueller denn je.

Organ­i­sa­tio­nen sind keine Maschi­nen

Die Tavi­s­tock-Forsch­er zeigten in den britis­chen Kohle­berg­w­erken: Rein tech­nis­che Opti­mierung zer­störte die gewach­se­nen sozialen Struk­turen der Arbeit­erteams – und damit Pro­duk­tiv­ität, Sicher­heit und Arbeit­szufrieden­heit. Das Konzept des sozio-tech­nis­chen Sys­tems war geboren: Tech­nik und soziales Gefüge müssen gemein­sam gestal­tet wer­den.

Auto­mate vs. Infor­mate: Die vergessene Wahl

Shoshana Zuboff zeigte 1988: Dieselbe Tech­nolo­gie kann Arbeit erset­zen (“auto­mate”) oder Men­schen ermächti­gen (“infor­mate”). Die Wahl ist nicht tech­nisch deter­miniert, son­dern eine Man­age­mententschei­dung. Aber fast alle Unternehmen wählten “auto­mate” – und ver­spiel­ten das eigentliche Poten­tial der Tech­nolo­gie. Diese Wahl ste­ht bei gen­er­a­tiv­er KI erneut an.

Die Geschichte wieder­holt sich – mit steigen­den Ein­sätzen

Von BPR (50–70% Scheit­ern) über ERP-Ein­führun­gen bis Indus­trie 4.0: Jede Automa­tisierungswelle ver­sprach Trans­for­ma­tion, unter­schätzte das Soziale und pro­duzierte mehr Schwierigkeit­en als erwartet. Die Prob­leme wur­den als Imple­men­tierungs­fehler gedeutet, nicht als Design­fehler. Dann kam die näch­ste Welle – und der Zyk­lus begann von vorn.

Gen­er­a­tive KI greift tiefer ein als frühere Tech­nolo­gien

Bish­erige Automa­tisierung sub­sti­tu­ierte kör­per­liche Arbeit oder struk­turi­erte kog­ni­tive Rou­ti­nen (Rech­nen, Daten­ver­ar­beitung). Gen­er­a­tive KI sub­sti­tu­iert erst­mals unstruk­turi­erte kog­ni­tive Arbeit: Texte ver­fassen, Sit­u­a­tio­nen ein­schätzen, kom­mu­nizieren. Damit greift sie in das Herz des sozialen Sys­tems ein.

Kör­p­er und Geist: Die Kon­ver­genz von Robotik und KI

Humanoide Robot­er und gen­er­a­tive KI zie­len bei­de auf Uni­ver­sal­ität: Das LLM soll alle sprach­lichen Auf­gaben übernehmen, der humanoide Robot­er alle kör­per­lichen. Die Kom­bi­na­tion – etwa bei Fig­ure AI – ver­spricht die voll­ständi­ge Sub­sti­tu­tion men­schlich­er Arbeit. Die Fra­gen, die Kyber­netik­er in den 1950ern und Automa­tisierungskri­tik­er in den 1960ern stell­ten, kehren mit neuer Dringlichkeit zurück: Was bleibt dem Men­schen, wenn Maschi­nen sowohl denken als auch han­deln kön­nen?

Das soziale Sys­tem lässt sich nicht wegau­toma­tisieren

Auch mit gen­er­a­tiv­er KI bleiben Unternehmen sozio-tech­nis­che Sys­teme. Die Tech­nik ändert sich, aber die Grund­struk­tur nicht: Men­schen kom­mu­nizieren, entwick­eln Ver­trauen, teilen implizites Wis­sen, reg­ulieren Kon­flik­te, impro­visieren bei Unvorherge­se­hen­em. All das lässt sich nicht in Work­flows gießen.

Hand­lungsempfehlun­gen

Joint Opti­miza­tion prak­tizieren

Tech­nis­che und soziale Verän­derun­gen gemein­sam pla­nen, nicht nacheinan­der. Vor jed­er KI- oder Automa­tisierung­se­in­führung fra­gen: Welche sozialen Struk­turen hän­gen an den betrof­fe­nen Prozessen? Was geht möglicher­weise ver­loren?

Auto­mate vs. Infor­mate bewusst entschei­den

Dieselbe Tech­nolo­gie kann erset­zen oder ermächti­gen. Die Wahl ist nicht tech­nisch deter­miniert. Gen­er­a­tive KI kann Texte automa­tisch pro­duzieren – oder Men­schen dabei unter­stützen, bessere Texte zu schreiben. Bei­des ist möglich; das Zweite ist meist klüger.

Erfahrungsräume erhal­ten

Autonome Sys­teme wie XPla­nar oder KI-Work­flows reduzieren die Gele­gen­heit­en, bei denen Men­schen Erfahrungswis­sen auf­bauen. Bewusst Räume schaf­fen, in denen Men­schen weit­er­hin prak­tisch arbeit­en, Fehler diag­nos­tizieren, impro­visieren kön­nen. Son­st fehlt in zehn Jahren das Wis­sen, um Prob­leme zu lösen

Autonomie statt Überwachung

Men­schen brauchen Entschei­dungsspiel­räume, nicht nur Überwachungs­funk­tio­nen. Cobots kön­nen kol­lab­o­ra­tiv einge­set­zt wer­den – oder als bil­ligere Robot­er, die Men­schen erset­zen. Die Wahl prägt, welche Fähigkeit­en erhal­ten bleiben.

Die Gen­er­a­tio­nen­frage stellen

Wer wird die Sys­teme in zehn Jahren noch ver­ste­hen? Wenn erfahrene Mitar­beit­er in Rente gehen und Jün­gere nur noch überwacht haben, entste­ht eine Wis­senslücke, die keine Doku­men­ta­tion füllen kann.

Aus dem Scheit­ern ler­nen

BPR, ERP-Ein­führun­gen, Vol­vo-Exper­i­mente – die Geschichte ist voll von Lehren. Warum scheit­ern 50–70% der großen IT-Pro­jek­te? Nicht an der Tech­nik, son­dern am Ignori­eren des Sozialen. Diese Fehler nicht mit mächtiger­er Tech­nolo­gie wieder­holen.

Ökonomis­che Zwänge anerken­nen

Humane Alter­na­tiv­en scheit­ern oft nicht an fehlen­dem Wis­sen, son­dern an Kos­ten­druck und kurzfristigem Ergeb­niszwang. Wer sozio-tech­nis­che Gestal­tung ernst nimmt, muss auch über Wirtschaftsstruk­turen reden – nicht nur über Arbeit­sor­gan­i­sa­tion.

Die Kon­ver­gen­zfrage stellen

Wenn gen­er­a­tive KI und humanoide Robotik zusam­menwach­sen, entste­ht die tech­nis­che Möglichkeit voll­ständi­ger Sub­sti­tu­tion. Das erfordert eine gesellschaftliche Debat­te, die über einzelne Unternehmen hin­aus­ge­ht: Was bleibt dem Men­schen? Wovon leben die Erset­zten? Wer entschei­det?

I. Charles Bab­bage und die Geburt der Maschi­nenökonomie

Charles Bab­bage ist heute vor allem als Erfind­er der “Ana­lyt­i­cal Engine” bekan­nt, eines mech­a­nis­chen Vor­läufers des Com­put­ers. Für die Geschichte der Automa­tisierung ist jedoch sein ökonomis­ches Werk rel­e­van­ter: “On the Econ­o­my of Machin­ery and Man­u­fac­tures” von 1832.

Das Bab­bage-Prinzip

Bab­bage beobachtete die Man­u­fak­turen sein­er Zeit und for­mulierte ein Prinzip, das bis heute die Logik der Ratio­nal­isierung prägt: Kom­plexe Arbeit sollte in Teilauf­gaben unter­schiedlich­er Schwierigkeit zer­legt wer­den. So kann man für ein­fache Auf­gaben weniger qual­i­fizierte – und damit bil­ligere – Arbeit­skräfte ein­set­zen. Nur für die wirk­lich anspruchsvollen Schritte braucht man teure Spezial­is­ten.
Das klingt banal, war aber rev­o­lu­tionär. Bab­bage dachte Arbeit nicht mehr als Ein­heit, son­dern als zer­leg­bares Sys­tem. Ein Uhrma­ch­er, der eine kom­plette Uhr fer­tigt, muss alle Arbeitss­chrit…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert