Eine kognitive Architektur, so Paul Thagard, "ist ein Vorschlag über die Art der mentalen Repräsentation und der Rechenverfahren, die einen Mechanismus zur Erklärung eines breiten Spektrums von Denkarten darstellen. Kognitive Architekturen wurden in erster Linie verwendet, um wichtige Aspekte des menschlichen Denkens wie Problemlösung, Gedächtnis und Lernen zu erklären. Sie können aber auch als Entwürfe für die Entwicklung von Computern und Robotern verwendet werden, die einige der kognitiven Fähigkeiten des Menschen besitzen"(in: Cognitive Architectures).
Am Horizont scheint die Idee einer vollständigen, vereinheitlichenden allgemeinen Theorie der Kognition auf, die Mechanismen zur Erklärung der Funktionsweise von Wahrnehmung, Aufmerksamkeit, Gedächtnis, Problemlösung, Argumentation, Lernen, Entscheidungsfindung, motorischer Kontrolle, Sprache, Emotion und Bewusstsein bietet. Bis dahin, so Thagard, könnten jedoch noch Jahrzehnte, wenn nicht Jahrhunderte vergehen.
Geschichte der kognitiven Architekturen
Der Begriff "Kognitive Architektur" entwickelte sich aus der Idee der Computerarchitektur, die ihren Ursprung in einer Beschreibung des ersten weit verbreiteten Computers, des IBM 360, hat.
Eine Computerarchitektur ist die konzeptionelle Struktur und das funktionale Verhalten eines Systems aus der Sicht eines Programmierers, nicht die physische Implementierung des Computers. John Andersons 1983 erschienenes Buch The Architecture of Cognition war der wichtigste Text, der den Begriff „kognitive Architektur“ einführte, definiert -- als „die grundlegenden Prinzipien der Operationen eines kognitiven Systems“. In diesem Buch wird die ACT-Architektur beschrieben, die eine Synthese aus Andersons früheren Ideen über das propositionale Gedächtnis und früheren Ideen über die regelbasierte Verarbeitung darstellt.
Regelbasierte Systeme und Neuronale Netzwerkmodelle
Die Geschichte der kognitiven Architekturen ist weiterhin geprägt von zwei Ansätzen - zum einen die regelbasierten Systeme und zum anderen die neuronalen Netze.
Das Konzept der regelbasierten Systeme in der Computerwissenschaft geht zurück auf die Arbeiten von Allan Newell und Herbert A. Simon. Sie wurden zunächst zur Erklärung des Problemlösens verwendet; später wurden sie zur Erklärung eines viel breiteren Spektrums psychologischer Phänomene, einschließlich Gedächtnis und Lernen, eingesetzt.
Herbert Simon selbst schrieb dazu:
Soweit es uns gelingt, unser - empirisches und theoretisches - Wissen über Computer zu erweitern und zu vertiefen, werden wir entdecken, dass sich ihr Verhalten größtenteils nach einfachen allgemeinen Gesetzen regelt, dass das, was als Komplexität eines Programms erschien, in beträchtlichem Maße eine Komplexität der Umgebung ist, an die das Programm sein Verhalten anzupassen versucht.(in: Die Wissenschaft vom Künstlichen).
Der andere Ansatz wird durch die Neuronalen Netzwerkmodelle repräsentiert.
"Dieser Ansatz wird auch Konnektionismus genannt, weil er davon ausgeht, dass Wissen nicht in Regeln, sondern über die Verbindungen zwischen einfachen neuronenartigen Prozessoren (Knoten) kodiert wird. .. Der Konnektionismus ist auf ein breites Spektrum psychologischer Phänomene angewandt worden, das vom Konzeptlernen bis zum Denken auf hohem Niveau reicht .. Zusammenfassend lässt sich sagen, dass konnektionistische Netze Schlussfolgerungen ziehen und Probleme durch parallele Erfüllung von Bedingungen lösen, und sie lernen, ihre Leistung durch Verfahren zu verbessern, die die Gewichte der Verbindungen zwischen den Knoten anpassen".
Allerdings sind herkömmliche konnektionistische Modelle in der Regel weder auf der Ebene der einzelnen Neuronen noch auf der Ebene der Gehirnorganisation biologisch realistisch, so Thagard.
Biologisch realistische neuronale Netze kodieren Informationen mit Hilfe von Spiking-Mustern, nicht nur mit Feuerungsraten. Eine Population von Neuronen kann sich auf eine Reihe von Reizen wie Gesichter einstellen, indem sie synaptische Verbindungen eingeht, die unterschiedliche Spiking-Muster erzeugen. Zweitens sind neuronale Netze nicht einfach nur elektrische Systeme, die Ladungen von einem Neuron zum anderen senden; sie sind auch chemische Systeme, die Dutzende von Neurotransmittern und andere Moleküle einsetzen, um die Signalübertragung auf komplexe Weise durchzuführen.
Synthese aus regelbasierten und konnektionistischen Systemen
Für Thagard folgt daraus, dass der Verstand sowohl ein regelbasiertes als auch ein konnektionistisches System ist, und dass die Problemlösung manchmal durch einen Raum von Regeln und manchmal durch die parallele Erfüllung von Zwängen erfolgen kann.
Eine kognitive oder neuronale Theorie zielt nicht darauf ab, alles über das Denken und das Gehirn zu beschreiben, sondern eher die Mechanismen, die den grundlegenden kausalen Prozessen zugrunde liegen, die für die Erklärung der Aspekte des Denkens, die wir am interessantesten finden, am wichtigsten sind. Vereinfachungen, wie sie die regelbasierten und konnektionistischen Modelle bieten, werden auch weiterhin nützlich sein, um bestimmte Phänomene in verständlicher Detailtiefe zu erklären. Die derzeitigen regelbasierten und konnektionistischen Modelle erfassen erfolgreich viele Aspekte des Denkens, insbesondere das sequentielle Lösen von Problemen und die parallele Erfüllung von Beschränkungen. Daher wird es weiterhin methodisch legitim sein, sie einzusetzen, selbst wenn sich herausstellen sollte, dass die ultimative kognitive Architektur von den theoretischen Neurowissenschaften geliefert wird.
Eine weitere Schlussfolgerung:
Der beste Weg, einen Computer dazu zu bringen, Dinge zu tun, die intelligent sind, könnte darin bestehen, eine Software zu entwickeln, die besser an die außergewöhnliche Geschwindigkeit und die fehlende Evolutionsgeschichte seiner zentralen Verarbeitungseinheit angepasst ist. Dann wird es zu einer Zweiteilung der kognitiven Architekturen kommen, und zwar in solche, die sich am besten für den Betrieb mit der chaotischen biologischen Hardware des Gehirns eignen, und solche, die sich am besten für den Betrieb mit digitalen Prozessen. .. Ein einheitliches Verständnis der Art und Weise, wie das Gehirn sowohl serielles Problemlösen mit Hilfe von Regeln als auch paralleles Erfüllen von Beschränkungen mit Hilfe verteilter Repräsentationen durchführen kann, wird ein großer Triumph der Kognitionswissenschaft sein.
Die ewige Suche nach der Vereinheitlichten Theorie
Das mit der vereinheitlichten Theorie ist so eine Sache. Für die Physik sei das, so David Lindley, bestenfalls ein Mythos:
Alle Versuche einer Allumfassenden Theorie stützen sich gegenwärtig auf eine Vielzahl grundlegender Prinzipien und leiden gleichzeitig unter einem Mangel an Details: Die Theorien müssen mit zusätzlichen, verborgenen Dimensionen erweitert werden, dazu kommen Symmetriebrechungen, um einigen Teilchen Masse zu verleihen, anderen aber nicht, und weitere Symmetriebrechungen, um die verschiedenen Teilchenwechselwirkungen zu unterscheiden usw. . Diese Erweiterungen und Ausschmückungen folgen keineswegs automatisch aus irgendeiner der bisher bekannt gewordenen Allumfassenden Theorien, alles muss “von Hand” zugegeben werden, damit sich eine Theorie ergibt, wie wir sie uns wünschen. Aber gleichzeitig sind diese Details, diese Abweichungen von der ursprünglichen, perfekten Allumfassenden Theorie das einzige, das wir zu messen hoffen können (in: “Das Ende der Physik. Vom Mythos der Großen Vereinheitlichten Theorie” von David Lindley).
Kommentar hinzufügen
Kommentare