Welcome to KI-Agenten   Klicken, um den Text zu hören Welcome to KI-Agenten

KI-Agen­ten im Gespräch mit Prof. Dr. August-Wil­helm Scheer, Grün­der und Alleinge­sellschafter der Scheer-Unternehmen und Dr. Wol­fram Jost, Geschäfts­führer und CTO der Scheer Unternehmen

  • Was waren aus Ihrer Sicht die wesentlichen Verän­derun­gen in der Soft­wa­reen­twick­lung und bei der Prozes­sautoma­tisierung der let­zten Jahrzehnte?
180522_scheer_135-min-scaled-2
Prof. Dr. August-Wil­helm Scheer

Die wesentlichen Verän­derun­gen im Bere­ich der Soft­wa­reen­twick­lung waren Cloud, DevOps, Low Code, Microser­vices, API´s und Con­tain­er. Mit der Cloud wurde ein völ­lig neues Deploy­ment Mod­ell für Soft­ware einge­führt. Soft­waresys­teme wer­den nicht mehr als Pro­dukt gekauft und in einem lokalen Rechen­zen­trum betrieben, son­dern aus der Cloud als Ser­vice kon­sum­iert (SaaS). DevOps beze­ich­net die Kom­bi­na­tion von Devel­op­ment und Oper­a­tions. Ziel ist es, die DevOps Pipeline (Design, Devel­op, Test, Deploy, Mon­i­tor und Man­age) so weit als möglich zu automa­tisieren. Man beze­ich­net diesen Ansatz auch als CI/CD (Con­tin­u­ous Integration/Deployment). Es geht darum, die Zeit von der Idee bis zur Aus­liefer­ung der fer­ti­gen Soft­ware­funk­tion­al­ität so ger­ing als möglich zu hal­ten. Low Code Tools haben die Zielset­zung, die Soft­wa­reen­twick­lung zu demokratisieren. Diese Tools stellen grafis­che Ober­flächen zur Ver­fü­gung, mit denen Sys­tem­mod­elle erstellt wer­den kön­nen. Diese grafis­chen Mod­elle kön­nen dann auf Knopf­druck automa­tisch in Code über­führt wer­den. Mit diesen Tools sollen auch nicht IT-Experten (Cit­i­zen Devel­op­er) in die Lage ver­set­zt wer­den, Soft­ware zu entwick­eln. Mod­erne Sys­teme fol­gen heute dem MSA (Microser­vices Archi­tec­ture) Ansatz. Das heißt, die Sys­teme beste­hen nicht mehr aus ein­er einzi­gen, großen mono­lithis­chen Kom­po­nente, son­dern aus mehreren kleinen, unab­hängi­gen Mod­ulen. Hier­durch sollen im Wesentlichen die Skalier­barkeit erhöht und die Anpas­sungs­geschwindigkeit beschle­u­nigt wer­den. Con­tain­er­man­age­ment bet­rifft den Prozess der Soft­ware­verteilung. Die einzel­nen Kom­po­nen­ten eines Ser­vices (Sys­tems) wer­den in einen soge­nan­nten Con­tain­er gepackt, der dann als Ein­heit deployed und ver­wal­tet wird. Die Con­tain­er stellen eine Art Betrieb­ssys­tem-Vir­tu­al­isierung dar. Damit wird das Deploy­ment flex­i­bler und stan­dar­d­isier­bar­er. Mit API´s wurde die Kom­mu­nika­tion zwis­chen Sys­te­men auf neue Beine gestellt. Ein API ist eine Art Ver­trag, der zwis­chen zwei Sys­te­men abgeschlossen wird. Der Ver­trag besagt, welche Dat­en und Funk­tio­nen aus­ge­tauscht wer­den kön­nen, in welchem For­mat dieser Aus­tausch erfol­gt und mit welchem Pro­tokoll „gesprochen“ wird.

All diese Dinge tre­f­fen auch auf die Sys­teme der Prozes­sautoma­tisierung zu. Ein wesentlich­er Aspekt kommt hier aber hinzu. Und das ist die Kon­ver­genz. Waren früher die Bere­iche Inte­gra­tion, Prozes­sautoma­tisierung und API Man­age­ment getren­nte Sys­teme, so ver­schmelzen diese heute zu ein­er ein­heitlichen Plat­tform mit ein­er ein­heitlichen Designumge­bung, ein­er inte­gri­erten Architek­tur und ein­er gemein­samen Run-Time. Weit­ere Verän­derun­gen fan­den im Bere­ich der Architek­tur statt.

  • Welche Auswirkun­gen hat die Gen­er­a­tive KI auf die Soft­wa­reen­twick­lung und die Soft­warearchitek­turen?
jost_wolfram-2
Dr. Wol­fram Jost

Der Ein­satz von KI in der Soft­wa­reen­twick­lung ist heute schon in vie­len Unternehmen gelebte Prax­is. Im Wesentlichen geht es hier­bei um die Bere­iche Code­gener­ierung, Test­gener­ierung, Fehler­analyse, Doku­men­ta­tion und Fehler­suche. Die KI-Sys­teme arbeit­en hier­bei nach dem Prinzip des „Input-Out­put-Map­pings“. Das heißt, auf Basis eines gegebe­nen Inputs wird ein Out­put automa­tisch gener­iert. Beim Input und Out­put kann es sich um Text, Code, Mod­elle, Grafiken, Kenn­zahlen, Dash­boards etc. han­deln. So kann beispiel­weise aus Text Code gener­iert wer­den. Diese Möglichkeit­en kön­nen zu ein­er höheren Pro­duk­tiv­ität der Entwick­ler führen und somit den Entwick­lung­sprozess stark beschle­u­ni­gen. Auch gibt es die Idee, dass mit diesen KI-Sys­te­men zukün­ftig auch nicht IT-Experten in die Lage ver­set­zt wer­den, Soft­ware entwick­eln kön­nen und somit dem Man­gel an qual­i­fizierten Soft­wa­reen­twick­lern begeg­net wer­den kann (No Code). Den­noch ist darauf hinzuweisen, dass der gener­ierte Out­put immer nur so gut ist, wie der vorgegebene Input. Die „Kun­st“ ver­lagert sich also vom Schreiben von Code auf das Schreiben von Prompts (Input). Aber, auch hier gilt der Satz, keine Wirkung ohne Neben­wirkun­gen. Die Ergeb­nisse der KI-Gener­ierung müssen (zumin­d­est heute noch) im Nach­hinein von Experten auf Fehler über­prüft wer­den. Mit anderen Worten, man kann den Ergeb­nis­sen nicht trauen. Das liegt daran, dass die KI-Sys­teme häu­fig „hal­luzinieren“. Man kön­nte auch sagen, sie „lügen“. Und sie machen das auf eine sehr überzeu­gende Art und Weise. Das „Hal­luzinieren“ liegt im Wesentlichen an der Art und Weise, wie die Large Lan­guage Mod­elle aufge­baut und trainiert wer­den. Es han­delt sich prinzip­iell um eine Wahrschein­lichkeitsverteilung über Wörter (Token). Das Einzige, was die Mod­elle somit tun, ist, das näch­ste Wort (Token) vorherzusagen (Pre­dic­tion). Das heißt die LLM´s haben kein Wis­sen über die Bedeu­tung von dem, was sie „sagen“. Diese Notwendigkeit, die von einem KI-Sys­tem gener­ierten Ergeb­nisse durch Experten über­prüfen zu lassen, ist natür­lich eine Ein­schränkung des zuvor genan­nten Pro­duk­tiv­itäts­gewinns. Auch der Ein­satz von nicht IT-Experten wird hier­durch eingeschränkt. Ein weit­er­er Punkt ist das The­ma „IP-Schutz“ (Intel­lec­tu­al Prop­er­ty). Es beste­ht die Möglichkeit, dass der von einem KI-Sys­tem gener­ierte Code eine Ver­let­zung des geisti­gen Eigen­tums darstellen kann. Der Grund liegt in der Tat­sache begrün­det, dass diese Mod­elle mit ein­er riesi­gen Menge an Code trainiert wer­den und dieser Code Bestandteile bein­hal­ten kann, die IP- rechtlich geschützt sind.

  • Ist es für Sie vorstell­bar, dass in Zukun­ft auch anspruchsvollere Tätigkeit­en in der Soft­wa­reen­twick­lung durch autonome Agen­ten über­nom­men wer­den?

Natür­lich ist das vorstell­bar. Die Entwick­lung der KI-Sys­teme hat erst ger­ade begonnen. Und sie entwick­eln sich mit rasender Geschwindigkeit weit­er. Mod­elle wer­den Mul­ti­modal, das heißt, sie vere­inen mehrere Modi (Text, Bilder, Code, Voice) in einem einzi­gen Mod­ell. Das Kon­textfen­ster wird immer größer, so dass die Prompts immer umfan­gre­ich­er und kom­plex­er wer­den kön­nen. Durch das Ground­ing und durch RAG (Retrieval Aug­ment­ed Gen­er­a­tion) wer­den die Mod­elle in die Lage ver­set­zt, mit „exter­nen“ Dat­en zu arbeit­en, was die Ver­lässlichkeit der Ergeb­nisse erhöht. Somit wer­den sich die Ein­satzge­bi­ete auch entsprechend weit­er­en­twick­eln. Es gibt aber ein paar offene Fra­gen. So zum Beispiel die Frage, ob das bish­er gel­tende Naturge­setz (bei LLM´s), „größer ist bess­er“, auch weit­er­hin gel­ten wird. Oder gibt es ein Plateau, wo trotz noch mehr Para­me­ter (Wahrschein­lichkeit­en) die Mod­elle nicht mehr bess­er oder sog­ar schlechter wer­den. Des Weit­eren stellt sich die Frage, wo noch mehr Train­ings­dat­en herkom­men sollen. Gehen den Mod­ellen die Dat­en aus? Manche Experten sagen, dass alle beste­hen­den Daten­quellen bere­its genutzt wur­den und es nicht mehr viele Dat­en gibt, die noch ver­wen­det wer­den kön­nen. Hier ver­sucht man mit syn­thetis­chen Dat­en Abhil­fe zu schaf­fen. Die näch­ste Frage, die sich stellt, ist die Energiefrage. Die Pro­duk­tion (das Trainieren) großer LLM´s mit mehreren Bil­lio­nen an Para­me­tern ver­braucht riesige Menge an Energie. Eine Chat GPT Abfrage ver­braucht 2,9 Watt pro Stunde. Eine Google Suche 0,3 Watt pro Stunde. AWS baut ger­ade das neueste Daten­cen­ter direkt neben einem Atom­kraftwerk mit 2,5 Gigawatt. Energie wird zu einem der wichtig­sten Erfol­gs­fak­toren der KI. Und zu guter Let­zt die Frage nach der Ver­lässlichkeit. Neben der Energiefrage ist das für mich der entschei­dende Punkt. Wird die Ver­lässlichkeit der Sys­teme zule­gen? Weil die heutige Ver­lässlichkeit der KI-Sys­teme für einen zukün­fti­gen Durch­bruch nicht aus­re­ichend ist.

  • Woran lag es, dass Mul­ti­a­gen­ten­sys­teme (MAS) über Jahrzehnte eigentlich nur in der The­o­rie bzw. als Proof of Con­cept existierten?

Hierzu muss man das Konzept der MAS mal etwas bess­er ver­ste­hen. Agen­ten sind autonome Soft­warekom­po­nen­ten, die in der Lage sind, Auf­gaben auszuführen, Entschei­dun­gen zu tre­f­fen oder mit anderen Agen­ten zu kom­mu­nizieren. Weit­ere Kom­po­nen­ten von MAS sind Tools, Auf­gaben und Prozesse. Auf­gaben sind direkt den Agen­ten zuge­ord­net und trans­formieren einen gegebe­nen Input in einen definierten Out­put. Tools sind Skills oder Funk­tio­nen, die Agen­ten ver­wen­den kön­nen, um Auf­gaben durchzuführen. Prozesse verknüpfen mehrere Agen­ten zu ein­er über­ge­ord­neten Zielset­zung (Strate­gie). Die Tat­sache, dass solche Sys­teme erst jet­zt von prak­tis­ch­er Rel­e­vanz sind, liegt an der ras­an­ten Entwick­lung der LLM´s. Ein LLM ist die zen­trale Schalt­stelle in MAS. Sie verbinden Tools, Auf­gaben, Agen­ten und Prozesse und übernehmen so die zen­trale Steuerung inner­halb eines MAS. Die erst heute vorhan­dene Fähigkeit von LLM´s externe API´s aufzu­rufen, ist hier ein wesentlich­es Ker­nele­ment. Auch die Tat­sache, dass mod­erne LLM´s untere­inan­der kom­mu­nizieren kön­nen und sich somit Auf­gaben teilen kön­nen, ist eine wesentliche Voraus­set­zung für MAS. Das alles gab es bis heute nicht. Eine MAS geht damit weit über das hin­aus, was die bish­eri­gen KI-Sys­teme leis­ten kön­nen, näm­lich die Gener­ierung von Text, Bildern oder Sprache. In einem MAS nehmen die LLM´s Steuerungs­funk­tio­nen war.

  • Kön­nte die Gen­er­a­tive KI den Durch­bruch für MAS im großen Stil brin­gen, d.h. lassen sich weite Teile der Unternehmen­sprozesse durch MAS steuern?

Davon bin ich überzeugt. Die reine „Gener­ierung“ wird sich zwar auch in weit­ere Anwen­dungs­ge­bi­ete aus­bre­it­en, aber der eigentliche Durch­bruch wird erst dann geschehen, wenn die KI-Sys­teme betrieb­swirtschaftliche Steuerungs­funk­tio­nen übernehmen kön­nen. Sie wer­den damit zu dem Ner­ven­sys­tem der Unternehmen. Im Ver­gle­ich zu heuti­gen Steuerungssys­te­men ist dies ein völ­lig neuer Ansatz. Heutige Steuerungssys­teme für fach­liche Prozesse, wie beispiel­sweise ERP- oder CRM-Sys­teme, arbeit­en nach dem fol­gen­den Prinzip: Men­schen über­legen sich, welche Prozesse und Dat­en in einem Unternehmen von Bedeu­tung sind (Auf­tragsab­wick­lung, Bestellab­wick­lung, Einkauf­s­ab­wick­lung) und imple­men­tieren diese Prozesse dann in Soft­ware. Man fügt noch ein paar Para­me­ter hinzu, um gewis­sen Anpas­sun­gen vornehmen zu kön­nen. Die Prozesse wer­den also im Vor­feld definiert und pro­gram­miert. Das bedeutet, dass nach­her in den Unternehmen immer nur die Prozesse aus­ge­führt wer­den kön­nen, die vorgedacht wur­den und auch immer nur in der pro­gram­mierten Art und Weise. Verän­derun­gen dieser Prozesse sind aufwändig, teuer, kom­plex und lang­wierig. Mit Speed of Change hat das wenig zu tun. Durch den Ein­satz von MAS kann es hier zu ein­er völ­lig neuar­ti­gen Architek­tur kom­men. Es wer­den lediglich die Agen­ten, Tools und Auf­gaben definiert. Die Logik der Prozesse dage­gen ergibt sich erst während der Aus­führung. Das heißt, es wer­den keine Blau­pausen vorgegeben, son­dern der Prozess ergibt sich automa­tisch und dynamisch während der Prozes­saus­führung. So kön­nen Prozesse dynamisch gestal­tet und flex­i­bel aus­ge­führt wer­den. Die Fähigkeit von Agen­ten, sich mit anderen Agen­ten dynamisch und sit­u­a­tions­be­zo­gen zu unter­hal­ten, spielt hier eine große Rolle. Insofern kön­nten MAS zu ein­er völ­lig neuen Prozessstrate­gie in den Unternehmen führen.

  • Welche Anpas­sun­gen an der IT-Infra­struk­tur und Organ­i­sa­tion müssen die Unternehmen vornehmen, um die verteilte Kün­stliche Intel­li­genz, wovon MAS nur ein Teil sind, auf wirtschaftliche und ver­ant­wortliche Weise nutzen zu kön­nen?

Durch den Ein­satz von MAS wird sich die Frage, wie eine IT-Infra­struk­tur zu gestal­ten ist, drama­tisch verän­dern. Hier­bei spielt die Cloud eine wesentliche Rolle. Es ist davon auszuge­hen, dass solche MAS primär als Cloud­ser­vice kon­sum­iert wer­den und nicht als Pro­dukt gekauft wer­den kön­nen. Eine eigene IT-Infra­struk­tur zum Betrieb von MAS aufzubauen, ist für die Mehrheit der Unternehmen fach­lich nicht mach­bar und finanziell nicht zu verkraften. Auch bezüglich der Organ­i­sa­tion wer­den sich durch den Ein­satz von MAS wesentliche Verän­derun­gen ergeben. Die heuti­gen Unternehmen sind in der Regel funk­tion­sori­en­tiert struk­turi­ert (Ressourcenop­ti­mierung). Es gibt Funk­tio­nen wie Einkauf, Verkauf, Finanzen, Mar­ket­ing, usw. Geschäft­sprozesse dage­gen inter­essieren sich nicht für funk­tionale Organ­i­sa­tion­sein­heit­en. Geschäft­sprozesse laufen quer zu den Unternehmensfunk­tio­nen. Wenn es nun gelingt, dass durch den Ein­satz von MAS die Vor­ab­de­f­i­n­i­tion von Geschäft­sprozessen nicht mehr erforder­lich ist und Prozesse sich erst zu ihrer Aus­führungszeit selb­st dynamisch definieren, dann kön­nte sich die klas­sis­che Funk­tion­sor­gan­i­sa­tion zu ein­er echt­en Prozes­sor­gan­i­sa­tion entwick­eln. Die Agen­ten übernehmen die Auf­gabe der Funk­tion­sein­heit­en, die Tasks übernehmen die Funk­tio­nen, die Tools übernehmen die Soft­ware-Capa­bil­i­ties und die LLM´s übernehmen die über­greifende Gesamt­s­teuerung der Unternehmen­sprozesse.

  1. Wo liegt die Gren­ze?
  2. Die Gren­zen liegen in den bere­its zuvor erläuterten Her­aus­forderun­gen mod­ern­er KI-Sys­teme:
    Sind wir in der Lage, die notwendi­ge Energie für die Ver­sorgung solch­er MAS wirtschaftlich zu pro­duzieren und kostengün­stig bere­itzustellen?
  3. Wird die Ver­lässlichkeit der KI-Sys­teme ein Niveau erre­ichen, das autonome Sys­teme brauchen, um gesellschaftliche Akzep­tanz zu find­en? (siehe autonomes Fahren).
  4. Ist die heutige Architek­tur von LLM´, die auf Neu­ronalen Net­zen, Atten­tion Mech­a­nis­mus, Back­prop­a­ga­tion und Gra­di­ent Descent basieren, aus­re­ichend, um skalier­bare, per­for­mante, sichere und pfleg­bare KI-Sys­teme zu entwick­eln?
  5. Wie viel „Macht“ ist der Men­sch wil­lens und in der Lage, an autonome Sys­teme abzugeben und wo ist der Men­sch uner­set­zlich?
  • Wie kön­nte das Zusam­men­spiel von Inte­gra­tionsplat­tfor­men wie Scheer PAS und Mul­ti­a­gen­ten­sys­te­men ausse­hen?

Wir sind dabei, Scheer PAS in ein Mul­ti­a­gen­ten­sys­tem zu trans­formieren (siehe Abbil­dung). Wir sind der Mei­n­ung, dass die klas­sis­che Architek­tur von Inte­gra­tions- und Prozess­plat­tfor­men nicht mehr zeit­gemäß ist, um die vielfälti­gen Anforderun­gen der dig­i­tal­en Unternehmenswelt zu erfüllen. Der tra­di­tionelle Auf­bau von 202408_grafik_agent-architectureInte­gra­tionsplat­tfor­men mit den Kom­po­nen­ten Design Tool, Run-Time, Mon­i­tor­ing und Ver­wal­tung wer­den zwar fach­lich erhal­ten bleiben, aber auf der Basis von Agen­ten, Tools, Task und Prozessen neuar­tig umge­set­zt. Unsere Grun­didee ist, dass die heutige klas­sis­che Laufzei­tumge­bung von Scheer PAS durch ein LLM erset­zt wird, die Inte­gra­tionslogik über Prozesse definiert und von Agen­ten aus­ge­führt wird (siehe Bild unten). Der Weg dor­thin wird in mehreren Schrit­ten erfol­gen. Als erstes wollen wir in der Lage sein, LLM´s als End­punk­te über API´s anzus­prechen und auf diese Weise in unsere heutige Architek­tur zu inte­gri­eren. Die weit­eren Schritte wer­den dann sukzes­sive fol­gen.

  • Wie sehen die Soft­wa­reen­twick­lung und Prozes­sautoma­tisierung in fünf Jahren aus?

Solche Prog­nosen sind immer schwierig. Ich gehe davon aus, dass die fach­lichen Funk­tio­nen der Soft­wa­reen­twick­lung erhal­ten bleiben. Soft­ware muss auch in 5 Jahren designed, entwick­elt, getestet, verteilt, überwacht und ver­wal­tet wer­den. Daran geht kein Weg vor­bei. Das „Was“ wird sich deshalb kaum ändern. Was sich aber stark verän­dern wird, ist das „Wie“ und das „Wer“. Automa­tisierung und Autonomie sind hier die entschei­den­den Schlag­worte. Der Soft­wa­reen­twick­lung­sprozess wird größ­ten­teils durch KI-Sys­teme automa­tisiert wer­den. Der Men­sch wird weit­er­hin involviert sein. Zum einen als „Überwachungsin­stanz“ und zum anderen als „Erfind­er“. Let­zteres immer dort, wo men­schlich­es Bewusst­sein erforder­lich ist. Zuvor wurde bere­its erläutert, dass KI-Sys­teme im Wesentlichen Input-Out­put Map­pings darstellen. Somit ist die Qual­ität des Inputs maßge­blich für die Qual­ität des Out­puts. Heute kommt dieser Input vom Men­schen. Die zen­trale Frage wird sein, von wem kommt dieser Input in 5 Jahren. Sollte sich dieses in der Weise umkehren, dass auch die Mas­chine den Input definieren kann, dann sind wir in ein­er völ­lig neuen Welt. Für die Prozes­sautoma­tisierung wurde schon zuvor die Prog­nose gemacht. Sie liegt in der Ablö­sung der tra­di­tionellen Anwen­dungssys­teme durch Mul­ti­a­gen­ten­sys­teme mit dynamis­ch­er Prozess­gestal­tung.

Das Gespräch führte Ralf Keu­per

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Klicken, um den Text zu hören