Der Computer im Kopf

Veröffentlicht am 23. September 2024 um 17:47

Von Ralf Keuper 

Vor fast 30 Jahren verfasste der Kognitionswissenschaftler Philip Johnson Laird sein Buch Der Computer im Kopf. Formen und Verfahren der Erkenntnis. Darin beschäftigte er sich mit der Frage, wie der menschliche Geist arbeitet und ob Parallelen zur Informationsverarbeitung eines Computers existieren. Kann die Funktionsweise des menschlichen Geistes auf einen Computer übertragen werden? Diese Frage ist gerade mit Blick auf den aktuellen Hype um die Generative Künstliche Intelligenz von besonderer Anziehungskraft. Welche Bestandteile muss eine Kognitive Architektur beinhalten, die den menschlichen Geist imitieren will? Trotz des fortgeschrittenen Alters der Publikation besitzen die meisten Aussagen und Annahmen nach wie vor Gültigkeit - nicht unbedingt, da sie sich bewahrheitet hätten, sondern vielmehr insofern, als sie noch immer Gegenstand der Diskussion sind. 

Laird fragt: 

Ist der Geist ein rechnerisches Phänomen? Man weiß es nicht. Es könnte sein; er könnte aber auch auf Operationen beruhen, die von keinem Computer einzufangen sind. Wenn diese Operationen gleichwohl effektive Prozeduren sind, so würden sie den Beweis dafür liefern, dass Turings Vermutung über die Natur der Berechnung falsch ist. Allerdings sollte man Theorien des Geistes nicht mit dem Geist selbst verwechseln, sowenig wie man Theorien über das Wetter mit Regen oder Sonnenschein verwechseln sollte. Klar ist, dass die Berechenbarkeit einen geeigneten Begriffsapparat für Theorien des Geistes bereitstellt. Dieser Apparat setzt nichts voraus, was nicht offenkundig wäre - jede Berechnung kann notfalls immer auf eine endliche Menge von Befehlen für das Verschieben eines Bandes und das Aufzeichnen eines Binärcodes reduziert werden. Wenn wir jedoch annehmen, dass Turings Vermutung stimmt, so läßt sich jede klare und explizite Darstellung dessen, wie Menschen zum Beispiel Gesichter erkennen, deduktiv folgern, neue Ideen erzeugen oder erlernte Handlungen steuern, jederzeit von einem Computerprogramm modellieren. 

Daraus lassen sich für die Kognitionswissenschaften laut Laird drei Lehren ziehen. 

  • Erstens gibt es für jede berechenbare Aufgabe eine unendliche Anzahl verschiedener Programme, und so ist es nicht möglich, aufgrund der Beobachtung des menschlichen Verhaltens durch Elimination aller übrigen auf die richtige Theorie zu stoßen. Stets wird es einige alternative Theorien geben, die gleichermaßen plausibel sind. Theorien sind hohem Maße durch empirische Daten unterdeterminiert; sie gehen immer über das hinaus, was beobachtet wurde und beobachtet werden kann. 
  • Zweitens wird eine Theorie mentaler Prozesse, sollte sie sich an Leistungsfähigkeit als einer Universalmaschine ebenbürtig erweisen, schwer zu widerlegen sein. Eine solche Theorie wäre, wie wir noch sehen werden, mit jedem beliebigen Muster von beobachteten Reaktionen in Einklang zu bringen. 
  • Drittens sollten Theorien des Geistes in einer Form ausgedrückt werden, die in einem Computerprogramm modelliert werden kann. Es kann an mehreren Gründen liegen, wenn eine Theorie diesem Kriterium nicht genügt: Sie ist grundlegend unvollständig, sie stützt sich auf einen nicht berechenbaren Prozess, sie ist inkonsistent, inkohärent oder setzt - wie etwa eine mystische Lehre - soviel voraus, dass nur ihre Anhänger sie verstehen. Diese Mängel sind nicht immer offensichtlich. Nicht immer wissen Erforschen des Geistes, dass sie nicht wissen, worüber sie sprechen. Am sichersten findet man das heraus, indem man ein Computerprogramm entwirft, das die Theorie modelliert. Ein funktionierendes Computerprogramm verlässt sich so wenig wie möglich auf Intuition; die Theorie, die es verkörpert, mag falsch sein, ist aber zumindest kohärent und nimmt zuviel als gegeben an. 

Danach wendet sich Laird dem Gedächtnis zu: 

Hauptkomponenten des Gedächtnisses

  • eine zentrale Exekutive, die das System als Ganzes steuert
  • eine Reihe von sensorischen Speichern, die die verschiedenen, vom Wahrnehmungssystem benötigten Repräsentationen festhalten
  • ein Arbeitsgedächtnis, um die Zwischenergebnisse der zentralen Exekutive, darunter die räumliche Repräsentationen, festzuhalten und eine verbale Schleife für die Wiederholung bereitzustellen
  • ein permanentes Gedächtnis für wichtige Fähigkeiten
  • ein Langzeitgedächtnis für Erfahrungen und Wissen

Danach beschreibt er die Theorie der Architektur des Geistes: 

Die Theorie der Architektur des Geistes .. postuliert, dass das Bewusstsein als Betriebssystem an der Spitze einer Hierarchie von Prozessoren steht. Es erhält von den Prozessoren innerhalb der Hierarchie Nachrichten, die die Welt repräsentieren; es schickt ihnen Nachrichten, die ihnen Plänen mitteilen. Prozessoren weiter unter in der Hierarchie bilden Module, die möglicherweise verteilte Repräsentationen benutzen, doch Kommunikationen mit dem Betriebssystem beruhen auf explizit strukturierten Symbolen mit einem propositionalen Inhalt. Die internen Signale von Bedürfnissen und Emotionen stellen, .. innerhalb dieser Architektur einen eigenen Signalisierungsmodus dar. Sie werden durch eine kleine Anzahl angeborener Signale übertragen. Nicht jedes Signal bedient sich eines eigenen chemischen Boten, aber an bestimmten Stellen im System können spezifische Neurotransmitter benutzt werden. Im Unterschied zu den Sätzen einer Sprache haben die Signale kleine explizite symbolische Struktur - sie haben keine Interpretation, die auf den Bedeutungen ihrer einzelnen Teile beruht, da ihre einzelnen Teile keine Bedeutung haben. Ein Signal ähnelt mehr einem Alarmschrei, der ein komplexes Muster aufweist und daher kaum mit einem anderen verwechselt werden kann.

Ein Prozessor erzeugt ein Signal und übermittelt es an andere Prozessoren, die wiederum, indem sie dasselbe Signal ausschicken, andere Prozessoren aufrufen können, bis schließlich ein erheblicher Teil der Prozessoren ein den selben Modus gelangt und die entsprechenden physiologischen Reaktionen und Verhaltensprogramme auslöst. Auf diese Weise kann die ganze Hierarchie rasch von einem Modus in den anderen übergehen und andere Aktivitäten unterbrechen, um angemessen zu reagieren, ohne dass es einer Symbolverarbeitung bedarf. Es ist auch möglich, dass die ganze Hierarchie für eine längere Zeitspanne in einen bestimmten Modus versetzt wird, mit einer Intensität, die von der Anzahl der beteiligten Prozessoren abhängt. Es kann jedoch vorkommen, dass verschiedene Prozessoren sich in unterschiedlichen Modi befinden und es einige Zeit dauert, den Konflikt auszulösen. 

Zur Rolle der Emotionen und des Bewusstseins 

.. gewisse Emotionen haben ihren Ursprung im Bewusstsein, da sie vom Modell des Selbst abhängen. Komplex sind diese Emotionen, weil sie ein emotionales Signal mit einer kognitiven Bewertung, die dem Betriebssystem entstammt, integrieren. Beide sind nicht voneinander zu trennen und daher können sie, anders als bei den Emotionen, die an einer anderen Stelle in der Hierarchie entspringen, eine komplexe Emotion wie Reue, Mitleid oder Eifersucht nicht empfinden, ohne sich der betreffenden kognitiven Bewertung bewusst zu sein. 

Eine grundsätzliche Frage bleibt indes: 

Dieselben Gefühle wie wir könnte ein Roboter nur dann empfinden, wenn er dieselben Bedürfnisse und sozialen Ziele hätte und von denselben internen Codes gesteuert würde wie wir. Doch sind Ihre subjektiven Empfindungen dieselben wie meine? Das könnten wir nur dann erfahren, wenn es möglich würde, Signale direkt von einem Nervensystem zum anderen zu schicken. Diese Möglichkeit liegt in weiter Ferne. 

Verteilte Verarbeitung statt expliziter Repräsentationen von Wissen 

Eine grundsätzlichere Möglichkeit ist, dass eine explizite Repräsentation von Wissen gar nicht nötig ist, um intelligente Maschinen zu bauen. Das Gehirn selbst repräsentiert möglicherweise einen Großteil seines Wissens in einer impliziten Repräsentation, die auf paralleler verteilter Verarbeitung basiert. Programme für den Erwerb solchen Wissens würden explizite Analysen überflüssig machen. Verteilte Verarbeitung könnte auch die Antwort auf Weizenbaums Behauptung sein, der unbewusste Geist arbeite nicht wie ein Computer. Es mag sein, dass er nicht wie ein herkömmlicher Digitalrechner arbeitet, aber es besteht kein Grund zu der Annahme, dass sein Operationsmodus sich nicht rechnerisch modellieren läßt

Einige philosophische Betrachtungen zum Schluss: 

Das kognitive Rechnen wirft viele philosophische Fragen auf. Es legt uns eine Alternative zu den traditionellen Philosophien des Geistes nahe: Mentale Prozesse sind die Berechnungen des Gehirns. Diese These ist unvereinbar mit der dualistischen Philosophie, für die Geist und Materie unabhängige Bereiche sind. Sie aber auch unvereinbar mit dem Materialismus, wie dem Idealismus, die traditionell den einen oder anderen Bereich außer acht gelassen haben. Sie impliziert, dass bestimmte Formen der Organisation von Materie das Auftreten von Prozessen ermöglicht, die Ereignisse, welche sich anderswo in der Welt abspielen. repräsentieren. Sie impliziert außerdem, dass die materielle Beschaffenheit des Computers keine Rolle spielt. Die Art und Weise, wie er seine Berechnungen realisiert, ist immateriell  - und unerheblich. Worauf es ankommt, ist die Organisation dieser Prozesse. Diese Philosophie setzt an die Stelle der unsterblichen Seele eine andere Form von Unsterblichkeit. Es besteht die entfernte Möglichkeit, dass die Berechnungen eines menschlichen Geistes in einem anderen Medium als dem Gehirn eingefangen werden könnten. 

Das kann man, wie Roger Penrose, jedoch anders sehen. Dazu später. 

Kommentar hinzufügen

Kommentare

Es gibt noch keine Kommentare.