Getting your Trinity Audio player ready...

Von Ralf Keu­per

Die Wis­senschaft vom Kün­stlichen Leben ste­ht im Schat­ten ihrer “Schwest­er”, der Kün­stlichen Intel­li­genz. Ein­er der Weg­bere­it­er des Kün­stlichen Lebens war der “Vater” der Dig­i­tal­isierung, John von Neu­mann, so Steven Levy in seinem Buch KL — Kün­stlich­es Leben aus dem Com­put­er. Von Neu­mann machte sich in den 1940er Jahren daran, einen Zel­lu­la­rauto­mat­en zu entwer­fen, der berech­nungs- und kon­struk­tion­suni­versell war. Dieser Automat sollte sich auf die Prob­leme biol­o­gis­ch­er Organ­i­sa­tion, Selb­stre­pro­duk­tion und die Evo­lu­tion von Kom­plex­ität anwen­den lassen.

Doch was ist eigentlich Kün­stlich­es Leben aus dem Com­put­er?

Kün­stlich­es Leben (KL) wid­met sich der Gestal­tung und Erforschung leben­sähn­lich­er Organ­is­men und Sys­teme, die von Men­schen geschaf­fen wur­den. Die Natur dieses Mate­ri­als ist anor­gan­isch, ihr Kern ist Infor­ma­tion, und Com­put­er sind die Brutkästen, die diese neuen Organ­is­men her­vor­brin­gen. Eben­so wie die medi­zinis­che Forschung es geschafft hat, Lebensvorgänge teil­weise in Reagen­zgläsern ablaufen zu lassen, so hof­fen Biolo­gen und Com­put­er­spezial­is­ten, Leben in Sili­ci­um­chips zu erschaf­fen.

Die wichtig­sten Impulse bei der Erforschung des Kün­stlichen Lebens stam­men von dem Biolo­gen Christo­pher Lang­ton.

Lang­ton ver­suchte, eine all­ge­meine Qual­ität des Lebendi­gen zu bes­tim­men, die Bere­iche aufzuzeigen, in denen Leben gut gedei­hen kann. Er konzen­tri­erte sich auf Uni­versen von Zel­lu­la­rauto­mat­en und machte Tausende von Exper­i­menten, um den Grenzbere­ich exakt zu bes­tim­men, in dem sie noch in der Lage waren, Infor­ma­tio­nen zu ver­bre­it­en. Warum war nun diese Fähigkeit wichtig? Nach Lang­tons Auf­fas­sung gehörte die Weit­er­leitung und das Spe­ich­ern von Infor­ma­tio­nen zu den unab­d­ing­baren Merk­malen des Lebens. Es ist unzweifel­haft, dass die meis­ten leben­den Dinge, die wir ken­nen, physikalis­che Verkör­pe­run­gen von Infor­ma­tion tra­gen­den Wesen sind”, erk­lärte er später. “Ein großer Teil dessen, was sie tun, basiert auf der Weit­er­leitung von Infor­ma­tio­nen, also nicht nur auf der Weit­er­leitung von Mate­ri­alien oder von Energie, son­dern von Infor­ma­tio­nen. Lebende Organ­is­men benutzen Infor­ma­tio­nen, um sich zu erneuern, um Fut­ter zu orten, also ihre Lebensvorgänge durch Beibehal­tung der inneren Struk­tur aufrecht zu erhal­ten … und diese Struk­tur selb­st ist Infor­ma­tion. Man muss daraus schließen, dass in leben­den Sys­te­men die Infor­ma­tion­sauswer­tung tat­säch­lich die Kon­trolle über­nom­men hat und über den Ein­satz der Energie bes­timmt”.

Ein weit­er­er Pio­nier war Steen Ras­mussen, der auf der zweit­en KL-Kon­ferenz mit sein­er Abhand­lung Aspects of Infor­ma­tion, Life, Real­i­ty, and Physics für Auf­se­hen sorgte.

Seine The­sen:

  1. Ein uni­verseller Com­put­er auf der Ebene ein­er Tur­ing-Mas­chine kann jeden physikalis­chen Prozess simulieren (Physikalis­che Church-Tur­ing-These).
  2. Das Leben ist ein physikalis­ch­er Prozess.
  3. Es gibt Kri­te­rien, anhand der­er wir in der Lage sind, lebende von nicht leben­den Objek­ten zu unter­schei­den.
  4. Ein kün­stlich­er Organ­is­mus muss eine Real­ität R2 wahrnehmen, die für ihn genau­so real ist wie unsere „reale“ Real­ität R1 für uns (R1 und R2 kön­nen iden­tisch sein).
  5. R1 und R2 haben densel­ben ontol­o­gis­chen Sta­tus.
  6. Es ist möglich, etwas über die grundle­gen­den Eigen­schaften von Real­itäten im All­ge­meinen und von R1 im Beson­deren zu ler­nen, indem man die Details ver­schieden­er R2s unter­sucht. Ein Beispiel für eine solche Eigen­schaft ist die Physik ein­er Real­ität.

Ein weit­er­er Meilen­stein war die Ein­führung Genetis­ch­er Algo­rith­men und sog. com­plex adap­tive sys­tems (cas) durch John Hol­land.

Ein Algo­rith­mus ist eine Art Formel, ein Rezept oder ein Schlüs­sel zur Lösung eines Prob­lems. Hol­lands Algo­rith­mus beruhte auf genetis­chen Prinzip­i­en. Dieser GA bedeutete in zweier­lei Hin­sicht einen wertvollen Durch­bruch: Zunächst ein­mal bedi­ente er sich der Evo­lu­tion, um opti­mierte Funk­tio­nen im Com­put­er zu entwicklen. Außer­dem ermöglichte der GA einen Ein­blick in die Arbeitsweise der Evo­lu­tion, und eröffnete die Möglichkeit, natür­liche Phänomene zu unter­suchen. Er lehnte sich an natür­liche Prinzip­i­en an und verkör­perte die haupt­säch­lichen Merk­male der Evo­lu­tion.  … Der genetis­che Algo­rith­mus über­set­zt diesen Prozess (Muta­tion) in den Bere­ich rein­er Logik und Math­e­matik, wobei das Genom als Kette binär­er Zahlen wiedergegeben wird. Diese Kette kann im über­tra­ge­nen Sinne als Chro­mo­som ange­se­hen wer­den, auf dem die Gene an bes­timmten Orten oder Loci ange­siedelt sind. Die unter­schiedlichen Vari­a­tio­nen dieser Gene wer­den Allele genan­nt. Bei einem GA kann jede markierte Stelle auf den Ket­ten als Gen betra­chtet wer­den, wobei die Allele Sätze von binären Alter­na­tiv­en wären, also Pakete von Ein­sen und Nullen, die an bes­timmten Orten auf den einzel­nen Ket­ten liegen wür­den.

Weit­er­er Höhep­unkt war die “Ent­deck­ung” der ersten Com­put­er­viren, wie der Brain-Virus. Die Ähn­lichkeit zwis­chen natür­lichen und kün­stlichen Viren ist auf­fal­l­end:

Bei­de teilen das Schick­sal, unvoll­ständi­ge Organ­is­men zu sein, die ihre Bes­tim­mung nur durch Aus­beu­tung eines Wirtsmech­a­nis­mus erfüllen kön­nen. Bei­de sind reine Über­lebens­mech­a­nis­men mit der Auf­gabe, ihre Sub­stanz, ein Stück Infor­ma­tion, zu erhal­ten. Sie tun die gle­ichen Dinge aus den gle­ichen Grün­den: Sie infizieren, replizieren sich und infizieren danach erneut, nur um diese kost­baren Dat­en zu erhal­ten.

Das Beispiel der Com­put­er­viren zeigt, dass KL außer Kon­trolle ger­at­en kann:

Im Kiel­wass­er der Viren wer­den zweifel­los andere autonome Organ­is­men entwick­elt wer­den. Durch die Ver­wen­dung biol­o­gis­ch­er Mech­a­nis­men, die es dem natür­lichen Leben ges­tat­ten, sich nach eige­nen Regeln der Tauglichkeit zu entwick­eln, schafft man unweiger­lich Organ­is­men, die sich nach ihren eige­nen Bedürfnis­sen ver­hal­ten, gle­ichgültig, ob das mit den Zie­len des Kon­struk­teurs im Ein­klang ste­ht oder nicht. Diese Eigen­schaft erlaubt es kün­stlichen Organ­is­men, ständig inno­v­a­tive Lösun­gen zu den Prob­le­men zu find­en, mit denen die Wis­senschaftler sie kon­fron­tieren. Wie bein­hal­tet aber auch das Risiko, dass die Organ­is­men in ein­er Weise mutieren, die sie vielle­icht in die Lage ver­set­zt, sich zu fra­gen, warum sie sich eigentlich um das küm­mern soll­ten, was der Forsch­er von ihnen ver­langt.

Das führt zu einem echt­en Dilem­ma:

Unser Inter­esse und unsere Fähigkeit, ander­sar­tige Nach­fol­ger zu erschaf­fen, kön­nte nicht so sehr eine Kom­po­nente irgen­dein­er uni­versellen Har­monie sein, son­dern vielmehr ein fataler genetis­ch­er Defekt, eine schlecht konzip­ierte evo­lu­tionäre Ein­bahn­straße, die zur Schaf­fung von KL-Organ­is­men führt, die nichts Eiligeres zu tun haben, als uns auszurot­ten. Wäre das der Fall, wür­den diejeni­gen, die das Kün­stliche Leben als Kreation von autonomen, entwick­lungs­fähi­gen Organ­is­men steuern, die Nach­folge der Roman­fig­ur Vic­tor Franken­stein antreten, der nicht so sehr durch seine eigene Kreation zugrunde gerichtet wurde als vielmehr durch seine Lei­den­schaft, mit dem zu Recht Ver­bote­nen herumzuhantieren.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert