Welcome to KI-Agenten   Klicken, um den Text zu hören Welcome to KI-Agenten
laird

Vor fast 30 Jahren ver­fasste der Kog­ni­tion­swis­senschaftler Philip John­son Laird sein Buch Der Com­put­er im Kopf. For­men und Ver­fahren der Erken­nt­nis. Darin beschäftigte er sich mit der Frage, wie der men­schliche Geist arbeit­et und ob Par­al­le­len zur Infor­ma­tionsver­ar­beitung eines Com­put­ers existieren. Kann die Funk­tion­sweise des men­schlichen Geistes auf einen Com­put­er über­tra­gen wer­den? Diese Frage ist ger­ade mit Blick auf den aktuellen Hype um die Gen­er­a­tive Kün­stliche Intel­li­genz von beson­der­er Anziehungskraft. Welche Bestandteile muss eine Kog­ni­tive Architek­tur bein­hal­ten, die den men­schlichen Geist imi­tieren will? Trotz des fort­geschrit­te­nen Alters der Pub­lika­tion besitzen die meis­ten Aus­sagen und Annah­men nach wie vor Gültigkeit — nicht unbe­d­ingt, da sie sich bewahrheit­et hät­ten, son­dern vielmehr insofern, als sie noch immer Gegen­stand der Diskus­sion sind.

Laird fragt:

Ist der Geist ein rech­ner­isches Phänomen? Man weiß es nicht. Es kön­nte sein; er kön­nte aber auch auf Oper­a­tio­nen beruhen, die von keinem Com­put­er einz­u­fan­gen sind. Wenn diese Oper­a­tio­nen gle­ich­wohl effek­tive Proze­duren sind, so wür­den sie den Beweis dafür liefern, dass Tur­ings Ver­mu­tung über die Natur der Berech­nung falsch ist. Allerd­ings sollte man The­o­rien des Geistes nicht mit dem Geist selb­st ver­wech­seln, sowenig wie man The­o­rien über das Wet­ter mit Regen oder Son­nen­schein ver­wech­seln sollte. Klar ist, dass die Berechen­barkeit einen geeigneten Begriff­s­ap­pa­rat für The­o­rien des Geistes bere­it­stellt. Dieser Appa­rat set­zt nichts voraus, was nicht offenkundig wäre — jede Berech­nung kann not­falls immer auf eine endliche Menge von Befehlen für das Ver­schieben eines Ban­des und das Aufze­ich­nen eines Binär­codes reduziert wer­den. Wenn wir jedoch annehmen, dass Tur­ings Ver­mu­tung stimmt, so läßt sich jede klare und explizite Darstel­lung dessen, wie Men­schen zum Beispiel Gesichter erken­nen, deduk­tiv fol­gern, neue Ideen erzeu­gen oder erlernte Hand­lun­gen steuern, jed­erzeit von einem Com­put­er­pro­gramm mod­el­lieren.

Daraus lassen sich für die Kog­ni­tion­swis­senschaften laut Laird drei Lehren ziehen.

  • Erstens gibt es für jede berechen­bare Auf­gabe eine unendliche Anzahl ver­schieden­er Pro­gramme, und so ist es nicht möglich, auf­grund der Beobach­tung des men­schlichen Ver­hal­tens durch Elim­i­na­tion aller übri­gen auf die richtige The­o­rie zu stoßen. Stets wird es einige alter­na­tive The­o­rien geben, die gle­icher­maßen plau­si­bel sind. The­o­rien sind hohem Maße durch empirische Dat­en unter­de­ter­miniert; sie gehen immer über das hin­aus, was beobachtet wurde und beobachtet wer­den kann.
  • Zweit­ens wird eine The­o­rie men­taler Prozesse, sollte sie sich an Leis­tungs­fähigkeit als ein­er Uni­ver­salmas­chine eben­bür­tig erweisen, schw­er zu wider­legen sein. Eine solche The­o­rie wäre, wie wir noch sehen wer­den, mit jedem beliebi­gen Muster von beobachteten Reak­tio­nen in Ein­klang zu brin­gen.
  • Drit­tens soll­ten The­o­rien des Geistes in ein­er Form aus­ge­drückt wer­den, die in einem Com­put­er­pro­gramm mod­el­liert wer­den kann. Es kann an mehreren Grün­den liegen, wenn eine The­o­rie diesem Kri­teri­um nicht genügt: Sie ist grundle­gend unvoll­ständig, sie stützt sich auf einen nicht berechen­baren Prozess, sie ist inkon­sis­tent, inko­härent oder set­zt — wie etwa eine mys­tis­che Lehre — soviel voraus, dass nur ihre Anhänger sie ver­ste­hen. Diese Män­gel sind nicht immer offen­sichtlich. Nicht immer wis­sen Erforschen des Geistes, dass sie nicht wis­sen, worüber sie sprechen. Am sich­er­sten find­et man das her­aus, indem man ein Com­put­er­pro­gramm entwirft, das die The­o­rie mod­el­liert. Ein funk­tion­ieren­des Com­put­er­pro­gramm ver­lässt sich so wenig wie möglich auf Intu­ition; die The­o­rie, die es verkör­pert, mag falsch sein, ist aber zumin­d­est kohärent und nimmt zuviel als gegeben an.

Danach wen­det sich Laird dem Gedächt­nis zu:

Haup­tkom­po­nen­ten des Gedächt­niss­es

  • eine zen­trale Exeku­tive, die das Sys­tem als Ganzes steuert
  • eine Rei­he von sen­sorischen Spe­ich­ern, die die ver­schiede­nen, vom Wahrnehmungssys­tem benötigten Repräsen­ta­tio­nen fes­thal­ten
  • ein Arbeits­gedächt­nis, um die Zwis­ch­en­ergeb­nisse der zen­tralen Exeku­tive, darunter die räum­liche Repräsen­ta­tio­nen, festzuhal­ten und eine ver­bale Schleife für die Wieder­hol­ung bere­itzustellen
  • ein per­ma­nentes Gedächt­nis für wichtige Fähigkeit­en
  • ein Langzeitgedächt­nis für Erfahrun­gen und Wis­sen

Danach beschreibt er die The­o­rie der Architek­tur des Geistes:

Die The­o­rie der Architek­tur des Geistes .. pos­tuliert, dass das Bewusst­sein als Betrieb­ssys­tem an der Spitze ein­er Hier­ar­chie von Prozes­soren ste­ht. Es erhält von den Prozes­soren inner­halb der Hier­ar­chie Nachricht­en, die die Welt repräsen­tieren; es schickt ihnen Nachricht­en, die ihnen Plä­nen mit­teilen. Prozes­soren weit­er unter in der Hier­ar­chie bilden Mod­ule, die möglicher­weise verteilte Repräsen­ta­tio­nen benutzen, doch Kom­mu­nika­tio­nen mit dem Betrieb­ssys­tem beruhen auf expliz­it struk­turi­erten Sym­bol­en mit einem propo­si­tionalen Inhalt. Die inter­nen Sig­nale von Bedürfnis­sen und Emo­tio­nen stellen, .. inner­halb dieser Architek­tur einen eige­nen Sig­nal­isierungsmodus dar. Sie wer­den durch eine kleine Anzahl ange­boren­er Sig­nale über­tra­gen. Nicht jedes Sig­nal bedi­ent sich eines eige­nen chemis­chen Boten, aber an bes­timmten Stellen im Sys­tem kön­nen spez­i­fis­che Neu­ro­trans­mit­ter benutzt wer­den. Im Unter­schied zu den Sätzen ein­er Sprache haben die Sig­nale kleine explizite sym­bol­is­che Struk­tur — sie haben keine Inter­pre­ta­tion, die auf den Bedeu­tun­gen ihrer einzel­nen Teile beruht, da ihre einzel­nen Teile keine Bedeu­tung haben. Ein Sig­nal ähnelt mehr einem Alarm­schrei, der ein kom­plex­es Muster aufweist und daher kaum mit einem anderen ver­wech­selt wer­den kann.

Ein Prozes­sor erzeugt ein Sig­nal und über­mit­telt es an andere Prozes­soren, die wiederum, indem sie das­selbe Sig­nal auss­chick­en, andere Prozes­soren aufrufen kön­nen, bis schließlich ein erhe­blich­er Teil der Prozes­soren ein den sel­ben Modus gelangt und die entsprechen­den phys­i­ol­o­gis­chen Reak­tio­nen und Ver­hal­tenspro­gramme aus­löst. Auf diese Weise kann die ganze Hier­ar­chie rasch von einem Modus in den anderen überge­hen und andere Aktiv­itäten unter­brechen, um angemessen zu reagieren, ohne dass es ein­er Sym­bol­ver­ar­beitung bedarf. Es ist auch möglich, dass die ganze Hier­ar­chie für eine län­gere Zeitspanne in einen bes­timmten Modus ver­set­zt wird, mit ein­er Inten­sität, die von der Anzahl der beteiligten Prozes­soren abhängt. Es kann jedoch vorkom­men, dass ver­schiedene Prozes­soren sich in unter­schiedlichen Modi befind­en und es einige Zeit dauert, den Kon­flikt auszulösen.

Zur Rolle der Emo­tio­nen und des Bewusst­seins

.. gewisse Emo­tio­nen haben ihren Ursprung im Bewusst­sein, da sie vom Mod­ell des Selb­st abhän­gen. Kom­plex sind diese Emo­tio­nen, weil sie ein emo­tionales Sig­nal mit ein­er kog­ni­tiv­en Bew­er­tung, die dem Betrieb­ssys­tem entstammt, inte­gri­eren. Bei­de sind nicht voneinan­der zu tren­nen und daher kön­nen sie, anders als bei den Emo­tio­nen, die an ein­er anderen Stelle in der Hier­ar­chie entsprin­gen, eine kom­plexe Emo­tion wie Reue, Mitleid oder Eifer­sucht nicht empfind­en, ohne sich der betr­e­f­fend­en kog­ni­tiv­en Bew­er­tung bewusst zu sein.

Eine grund­sät­zliche Frage bleibt indes:

Diesel­ben Gefüh­le wie wir kön­nte ein Robot­er nur dann empfind­en, wenn er diesel­ben Bedürfnisse und sozialen Ziele hätte und von densel­ben inter­nen Codes ges­teuert würde wie wir. Doch sind Ihre sub­jek­tiv­en Empfind­un­gen diesel­ben wie meine? Das kön­nten wir nur dann erfahren, wenn es möglich würde, Sig­nale direkt von einem Ner­ven­sys­tem zum anderen zu schick­en. Diese Möglichkeit liegt in weit­er Ferne.

Verteilte Ver­ar­beitung statt expliziter Repräsen­ta­tio­nen von Wis­sen

Eine grund­sät­zlichere Möglichkeit ist, dass eine explizite Repräsen­ta­tion von Wis­sen gar nicht nötig ist, um intel­li­gente Maschi­nen zu bauen. Das Gehirn selb­st repräsen­tiert möglicher­weise einen Großteil seines Wis­sens in ein­er impliziten Repräsen­ta­tion, die auf par­al­lel­er verteil­ter Ver­ar­beitung basiert. Pro­gramme für den Erwerb solchen Wis­sens wür­den explizite Analy­sen über­flüs­sig machen. Verteilte Ver­ar­beitung kön­nte auch die Antwort auf Weizen­baums Behaup­tung sein, der unbe­wusste Geist arbeite nicht wie ein Com­put­er. Es mag sein, dass er nicht wie ein herkömm­lich­er Dig­i­tal­rech­n­er arbeit­et, aber es beste­ht kein Grund zu der Annahme, dass sein Oper­a­tions­modus sich nicht rech­ner­isch mod­el­lieren läßt.

Einige philosophis­che Betra­ch­tun­gen zum Schluss:

Das kog­ni­tive Rech­nen wirft viele philosophis­che Fra­gen auf. Es legt uns eine Alter­na­tive zu den tra­di­tionellen Philoso­phien des Geistes nahe: Men­tale Prozesse sind die Berech­nun­gen des Gehirns. Diese These ist unvere­in­bar mit der dual­is­tis­chen Philoso­phie, für die Geist und Materie unab­hängige Bere­iche sind. Sie aber auch unvere­in­bar mit dem Mate­ri­al­is­mus, wie dem Ide­al­is­mus, die tra­di­tionell den einen oder anderen Bere­ich außer acht gelassen haben. Sie impliziert, dass bes­timmte For­men der Organ­i­sa­tion von Materie das Auftreten von Prozessen ermöglicht, die Ereignisse, welche sich ander­swo in der Welt abspie­len. repräsen­tieren. Sie impliziert außer­dem, dass die materielle Beschaf­fen­heit des Com­put­ers keine Rolle spielt. Die Art und Weise, wie er seine Berech­nun­gen real­isiert, ist imma­teriell — und uner­he­blich. Worauf es ankommt, ist die Organ­i­sa­tion dieser Prozesse. Diese Philoso­phie set­zt an die Stelle der unsterblichen Seele eine andere Form von Unsterblichkeit. Es beste­ht die ent­fer­nte Möglichkeit, dass die Berech­nun­gen eines men­schlichen Geistes in einem anderen Medi­um als dem Gehirn einge­fan­gen wer­den kön­nten.

Autor: Ralf Keu­per

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Klicken, um den Text zu hören