Welcome to KI-Agenten   Klicken, um den Text zu hören Welcome to KI-Agenten
penrose-3

Vertreter der Kün­stlichen Intel­li­genz, ins­beson­dere diejeni­gen, die für die All­ge­meine oder starke Kün­stliche Intel­li­genz plädieren, sind der Überzeu­gung, dass das men­schliche Gehirn im Prinzip wie ein Com­put­er arbeit­et. Mit den richti­gen Algo­rith­men kann die Arbeitsweise des Gehirns imi­tiert wer­den. Die Hard­ware ist zweitrangig. Algo­rith­men kön­nen durch ihre bloße Aus­führung Bewusst­sein erzeu­gen.

Diesen Annah­men wider­spricht der britis­che Math­e­matik­er, the­o­retis­che Physik­er und Nobel­preisträger Roger Pen­rose in seinem bere­its vor Jahrzehn­ten erschiene­nen Buch Com­pu­t­er­denken.

Pen­rose ist der Ansicht, dass die Tätigkeit des Bewusst­seins eine wesentliche nicht-algo­rith­mis­che Kom­po­nente enthal­ten muss:

Irgend­wie ist Bewusst­sein nötig, um Sit­u­a­tio­nen zu bewälti­gen, in denen wir neue Urteile bilden müssen und bei denen die Regeln nicht zuvor niedergelegt wor­den sind. Zwis­chen den geisti­gen Aktiv­itäten, die anscheinend Bewusst­sein erfordern, und den übri­gen lassen sich nur schw­er sehr präzise Unter­schei­dun­gen tre­f­fen. Vielle­icht kön­nte, wie die Anhänger der starken KI meinen, unser “Bilden neuer Urteile” wiederum in der Anwen­dung gewiss­er wohldefiniert­er algo­rith­mis­chen Regeln beste­hen, wobei es sich um unklare Regeln ein­er “höheren Ebene” han­deln würde, deren Funk­tion­sweise uns nicht bewusst ist. Doch ich denke, dass die von uns gewöhn­lich ver­wen­dete Ter­mi­nolo­gie, die unsere bewusste Geis­testätigkeit von unser­er unbe­wussten unter­schei­det, eine Unter­schei­dung zwis­chen nicht-algo­rith­mis­chen und algo­rith­mis­chen Prozessen zumin­d­est nahelegt. 

Bewusst­sein erforder­lich:

  • gesun­der Men­schen­ver­stand
  • Wahrheit­surteil
  • Ver­ste­hen
  • kün­st­lerische Wer­tung

Bewusst­sein nicht erforder­lich

  • automa­tisch
  • gedanken­los­es Befol­gen von Regeln
  • pro­gram­miert
  • algo­rith­misch

Vielle­icht sind diese Unter­schei­dun­gen nicht immer sehr klar umris­sen, vor allem weil in unsere bewussten Urteile viele unbe­wusste Fak­toren einge­hen: Erfahrung, Intu­ition, Vorurteil, sog­ar unser nor­maler Gebrauch von Logik. Doch die Urteile selb­st sind, wie ich behaupten würde, Aus­druck der Tätigkeit des Bewusst­seins. Ich meine daher, dass unbe­wusste Hirn­tätigkeit­en gemäß algo­rith­mis­chen Prozessen ablaufen, während die Tätigkeit des Bewusst­seins davon ganz ver­schieden ist und in ein­er Weise vor sich geht, die durch keinen Algo­rith­mus beschrieben wer­den kann. …

Das voll­ständig bewusste, ganz und gar logisch-ratio­nal erk­lär­bare Denken lässt sich gle­ich­falls (oft) als etwas Algo­rith­mis­ches for­mal­isieren, aber auf einem ganz anderen Niveau. Dabei meinen wir nicht die inter­nen Vorgänge (das Feuern von Neu­ro­nen und so weit­er), son­dern das Ver­ar­beit­en ganz­er Gedanken. Manch­mal hat diese Gedanken­ma­nip­u­la­tion algo­rith­mis­chen Charak­ter, mach­mal aber auch nicht (wie beim Gödelschen Satz). Das Bilden von Urteilen, das ich für ein Wesens­merk­mal von Bewusst­sein halte, ist an sich selb­st etwas, von dessen Pro­gram­mierung auf einem Com­put­er KI-Forsch­er keinen Begriff haben.

Mit­tler­weile wird ver­sucht, KI-Sys­teme mit der Fähigkeit von Sys­tem2-Denken auszus­tat­ten — bis­lang jedoch ohne belast­bare Beweise zu liefern, wie die Autoren von AI Agents That Mat­ter fest­stellen:

Es gibt keine Beweise dafür, dass Sys­tem-2-Ansätze für Leis­tungssteigerun­gen ver­ant­wortlich sind. Da Arbeit­en, in denen neue Agen­ten vorgeschla­gen wer­den, ein­fache Basis­lin­ien nicht aus­re­ichend getestet haben, hat dies in der Com­mu­ni­ty zu der weit ver­bre­it­eten Annahme geführt, dass kom­plexe Konzepte wie Pla­nung, Reflex­ion und Debug­ging für die Genauigkeitssteigerung ver­ant­wortlich sind. Basierend auf unseren Ergeb­nis­sen bleibt die Frage offen, ob Debug­ging, Reflex­ion und andere solche „Sys­tem 2“-Ansätze für die Code­gener­ierung nüt­zlich sind, was im Ein­klang mit anderen neueren Ergeb­nis­sen ste­ht. Darüber hin­aus wird der über­mäßige Opti­mis­mus in Bezug auf Sys­tem-2-Ansätze durch einen Man­gel an Repro­duzier­barkeit und Stan­dar­d­isierung ver­schärft .. . Das Ver­säum­nis, die Quellen empirisch­er Gewinne zu iden­ti­fizieren, ist ein langjähriges Prob­lem im ML und ver­wandten Bere­ichen. Es ist möglich, dass Sys­tem-2-Tech­niken bei schwierigeren Pro­gram­mier­auf­gaben als den in HumanEval dargestell­ten nüt­zlich sind, wie z. B. SWE-bench.

Eben­sowenig kon­nten bish­er große Sprach­mod­elle iden­ti­fiziert wer­den, die über emer­gente Fähigkeit­en ver­fü­gen.

Autor: Ralf Keu­per

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Klicken, um den Text zu hören