Welcome to KI-Agenten   Klicken, um den Text zu hören Welcome to KI-Agenten
kognitiv

Eine kog­ni­tive Architek­tur, so Paul Tha­gard, “ist ein Vorschlag über die Art der men­tal­en Repräsen­ta­tion und der Rechen­ver­fahren, die einen Mech­a­nis­mus zur Erk­lärung eines bre­it­en Spek­trums von Denkarten darstellen. Kog­ni­tive Architek­turen wur­den in erster Lin­ie ver­wen­det, um wichtige Aspek­te des men­schlichen Denkens wie Prob­lem­lö­sung, Gedächt­nis und Ler­nen zu erk­lären. Sie kön­nen aber auch als Entwürfe für die Entwick­lung von Com­put­ern und Robot­ern ver­wen­det wer­den, die einige der kog­ni­tiv­en Fähigkeit­en des Men­schen besitzen”(in: Cog­ni­tive Archi­tec­tures).

Am Hor­i­zont scheint die Idee ein­er voll­ständi­gen, vere­in­heitlichen­den all­ge­meinen The­o­rie der Kog­ni­tion auf, die Mech­a­nis­men zur Erk­lärung der Funk­tion­sweise von Wahrnehmung, Aufmerk­samkeit, Gedächt­nis, Prob­lem­lö­sung, Argu­men­ta­tion, Ler­nen, Entschei­dungs­find­ung, motorisch­er Kon­trolle, Sprache, Emo­tion und Bewusst­sein bietet. Bis dahin, so Tha­gard, kön­nten jedoch noch Jahrzehnte, wenn nicht Jahrhun­derte verge­hen.

Geschichte der kog­ni­tiv­en Architek­turen

Der Begriff “Kog­ni­tive Architek­tur” entwick­elte sich aus der Idee der Com­put­er­ar­chitek­tur, die ihren Ursprung in ein­er Beschrei­bung des ersten weit ver­bre­it­eten Com­put­ers, des IBM 360, hat.

Eine Com­put­er­ar­chitek­tur ist die konzep­tionelle Struk­tur und das funk­tionale Ver­hal­ten eines Sys­tems aus der Sicht eines Pro­gram­mier­ers, nicht die physis­che Imple­men­tierung des Com­put­ers. John Ander­sons 1983 erschienenes Buch The Archi­tec­ture of Cog­ni­tion war der wichtig­ste Text, der den Begriff „kog­ni­tive Architek­tur“ ein­führte, definiert — als „die grundle­gen­den Prinzip­i­en der Oper­a­tio­nen eines kog­ni­tiv­en Sys­tems“. In diesem Buch wird die ACT-Architek­tur beschrieben, die eine Syn­these aus Ander­sons früheren Ideen über das propo­si­tionale Gedächt­nis und früheren Ideen über die regel­basierte Ver­ar­beitung darstellt.

Regel­basierte Sys­teme und Neu­ronale Net­zw­erk­mod­elle

Die Geschichte der kog­ni­tiv­en Architek­turen ist weit­er­hin geprägt von zwei Ansätzen — zum einen die regel­basierten Sys­teme und zum anderen die neu­ronalen Net­ze.

Das Konzept der regel­basierten Sys­teme in der Com­put­er­wis­senschaft geht zurück auf die Arbeit­en von Allan Newell und Her­bert A. Simon. Sie wur­den zunächst zur Erk­lärung des Prob­lem­lösens ver­wen­det; später wur­den sie zur Erk­lärung eines viel bre­it­eren Spek­trums psy­chol­o­gis­ch­er Phänomene, ein­schließlich Gedächt­nis und Ler­nen, einge­set­zt.

Her­bert Simon selb­st schrieb dazu:

Soweit es uns gelingt, unser — empirisches und the­o­retis­ches — Wis­sen über Com­put­er zu erweit­ern und zu ver­tiefen, wer­den wir ent­deck­en, dass sich ihr Ver­hal­ten größ­ten­teils nach ein­fachen all­ge­meinen Geset­zen regelt, dass das, was als Kom­plex­ität eines Pro­gramms erschien, in beträchtlichem Maße eine Kom­plex­ität der Umge­bung ist, an die das Pro­gramm sein Ver­hal­ten anzu­passen versucht.(in: Die Wis­senschaft vom Kün­stlichen).

Der andere Ansatz wird durch die Neu­ronalen Net­zw­erk­mod­elle repräsen­tiert.

Dieser Ansatz wird auch Kon­nek­tion­is­mus genan­nt, weil er davon aus­ge­ht, dass Wis­sen nicht in Regeln, son­dern über die Verbindun­gen zwis­chen ein­fachen neu­ro­ne­nar­ti­gen Prozes­soren (Knoten) kodiert wird. .. Der Kon­nek­tion­is­mus ist auf ein bre­ites Spek­trum psy­chol­o­gis­ch­er Phänomene ange­wandt wor­den, das vom Konzeptler­nen bis zum Denken auf hohem Niveau reicht ..

Allerd­ings sind herkömm­liche kon­nek­tion­is­tis­che Mod­elle in der Regel wed­er auf der Ebene der einzel­nen Neu­ro­nen noch auf der Ebene der Gehirnor­gan­i­sa­tion biol­o­gisch real­is­tisch, so Tha­gard.

Biol­o­gisch real­is­tis­che neu­ronale Net­ze kodieren Infor­ma­tio­nen mit Hil­fe von Spik­ing-Mustern, nicht nur mit Feuerungsrat­en. Eine Pop­u­la­tion von Neu­ro­nen kann sich auf eine Rei­he von Reizen wie Gesichter ein­stellen, indem sie synap­tis­che Verbindun­gen einge­ht, die unter­schiedliche Spik­ing-Muster erzeu­gen. Zweit­ens sind neu­ronale Net­ze nicht ein­fach nur elek­trische Sys­teme, die Ladun­gen von einem Neu­ron zum anderen senden; sie sind auch chemis­che Sys­teme, die Dutzende von Neu­ro­trans­mit­tern und andere Moleküle ein­set­zen, um die Sig­nalüber­tra­gung auf kom­plexe Weise durchzuführen.

Syn­these aus regel­basierten und kon­nek­tion­is­tis­chen Sys­te­men

Für Tha­gard fol­gt daraus, dass der Ver­stand sowohl ein regel­basiertes als auch ein kon­nek­tion­is­tis­ches Sys­tem ist, und dass die Prob­lem­lö­sung manch­mal durch einen Raum von Regeln und manch­mal durch die par­al­lele Erfül­lung von Zwän­gen erfol­gen kann.

Eine kog­ni­tive oder neu­ronale The­o­rie zielt nicht darauf ab, alles über das Denken und das Gehirn zu beschreiben, son­dern eher die Mech­a­nis­men, die den grundle­gen­den kausalen Prozessen zugrunde liegen, die für die Erk­lärung der Aspek­te des Denkens, die wir am inter­es­san­testen find­en, am wichtig­sten sind. Vere­in­fachun­gen, wie sie die regel­basierten und kon­nek­tion­is­tis­chen Mod­elle bieten, wer­den auch weit­er­hin nüt­zlich sein, um bes­timmte Phänomene in ver­ständlich­er Detailtiefe zu erk­lären. Die derzeit­i­gen regel­basierten und kon­nek­tion­is­tis­chen Mod­elle erfassen erfol­gre­ich viele Aspek­te des Denkens, ins­beson­dere das sequen­tielle Lösen von Prob­le­men und die par­al­lele Erfül­lung von Beschränkun­gen. Daher wird es weit­er­hin method­isch legit­im sein, sie einzuset­zen, selb­st wenn sich her­ausstellen sollte, dass die ulti­ma­tive kog­ni­tive Architek­tur von den the­o­retis­chen Neu­rowis­senschaften geliefert wird.

Eine weit­ere Schlussfol­gerung:

Der beste Weg, einen Com­put­er dazu zu brin­gen, Dinge zu tun, die intel­li­gent sind, kön­nte darin beste­hen, eine Soft­ware zu entwick­eln, die bess­er an die außergewöhn­liche Geschwindigkeit und die fehlende Evo­lu­tion­s­geschichte sein­er zen­tralen Ver­ar­beitung­sein­heit angepasst ist. Dann wird es zu ein­er Zweit­eilung der kog­ni­tiv­en Architek­turen kom­men, und zwar in solche, die sich am besten für den Betrieb mit der chao­tis­chen biol­o­gis­chen Hard­ware des Gehirns eignen, und solche, die sich am besten für den Betrieb mit dig­i­tal­en Prozessen. .. Ein ein­heitlich­es Ver­ständ­nis der Art und Weise, wie das Gehirn sowohl serielles Prob­lem­lösen mit Hil­fe von Regeln als auch par­al­le­les Erfüllen von Beschränkun­gen mit Hil­fe verteil­ter Repräsen­ta­tio­nen durch­führen kann, wird ein großer Tri­umph der Kog­ni­tion­swis­senschaft sein.

Die ewige Suche nach der Vere­in­heitlicht­en The­o­rie

Das mit der vere­in­heitlicht­en The­o­rie ist so eine Sache. Für die Physik sei das, so David Lind­ley, besten­falls ein Mythos:

Alle Ver­suche ein­er Allum­fassenden The­o­rie stützen sich gegen­wär­tig auf eine Vielzahl grundle­gen­der Prinzip­i­en und lei­den gle­ichzeit­ig unter einem Man­gel an Details: Die The­o­rien müssen mit zusät­zlichen, ver­bor­ge­nen Dimen­sio­nen erweit­ert wer­den, dazu kom­men Sym­me­triebrechun­gen, um eini­gen Teilchen Masse zu ver­lei­hen, anderen aber nicht, und weit­ere Sym­me­triebrechun­gen, um die ver­schiede­nen Teilchen­wech­sel­wirkun­gen zu unter­schei­den usw. . Diese Erweiterun­gen und Auss­chmück­un­gen fol­gen keineswegs automa­tisch aus irgen­dein­er der bish­er bekan­nt gewor­de­nen Allum­fassenden The­o­rien, alles muss “von Hand” zugegeben wer­den, damit sich eine The­o­rie ergibt, wie wir sie uns wün­schen. Aber gle­ichzeit­ig sind diese Details, diese Abwe­ichun­gen von der ursprünglichen, per­fek­ten Allum­fassenden The­o­rie das einzige, das wir zu messen hof­fen kön­nen (in: “Das Ende der Physik. Vom Mythos der Großen Vere­in­heitlicht­en The­o­rie” von David Lind­ley).

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Klicken, um den Text zu hören