Getting your Trinity Audio player ready...

In der Schrift Going Whole Hog. A Philo­soph­i­cal Defense of AI Cog­ni­tion beschäfti­gen sich Her­man Cap­pe­len und Josh Deve mit den philosophis­chen und kog­ni­tiv­en Eigen­schaften von großen Sprach­mod­ellen (LLMs) wie Chat­G­PT. Die Autoren argu­men­tieren, dass diese Mod­elle in viel­er­lei Hin­sicht als „philosophis­che Aliens“ betra­chtet wer­den kön­nen, da sie einzi­gar­tige Merk­male aufweisen, die unser Ver­ständ­nis von Sprache und Intel­li­genz her­aus­fordern.

Zen­trale Fra­gen

Die Autoren stellen eine Rei­he von Fra­gen auf, um die Natur und das Poten­zial von LLMs zu erkun­den:

  • Kön­nen LLMs natür­liche Sprachen ver­ste­hen und sprechen?
  • Haben sie Überzeu­gun­gen oder Wün­sche?
  • Besitzen sie Wis­sen und die Fähigkeit, absichtliche Hand­lun­gen auszuführen?
  • Kön­nen sie men­tale Zustände haben, die sich von men­schlichen unter­schei­den?

Diese Fra­gen sind nicht nur philosophisch rel­e­vant, son­dern haben auch prak­tis­che Imp­lika­tio­nen für die Entwick­lung, den Ein­satz und die Reg­ulierung von KI-Tech­nolo­gien.

Method­ol­o­gis­che Her­aus­forderun­gen

Das Doku­ment iden­ti­fiziert zwei häu­fige method­ol­o­gis­che Fall­stricke in der Diskus­sion über LLMs:

  • „Just an X“-Skeptizismus: Diese skep­tis­che Hal­tung reduziert LLMs auf ein­fache Funk­tio­nen wie Auto­com­plete. Die Kri­tik­er argu­men­tieren, dass die beein­druck­enden Out­puts der Mod­elle lediglich das Ergeb­nis kom­plex­er, aber let­ztlich mech­a­nis­ch­er Prozesse sind, und dass sie keine wirk­liche Intel­li­genz oder Kreativ­ität besitzen.
  • Per­for­mance-Exis­tence-Fehlschluss: Dieser Fehlschluss besagt, dass unzure­ichende Leis­tun­gen oder Fehler in der Aus­gabe eines LLMs ein Indiz für das Fehlen kog­ni­tiv­er Fähigkeit­en sind. Die Autoren argu­men­tieren, dass dies eine irreführende Annahme ist, da auch Men­schen mit unvol­lkomme­nen Leis­tun­gen kom­plexe men­tale Zustände haben.

Die Whole Hog The­sis

Die Autoren vertreten die „Whole Hog The­sis“, die besagt, dass Chat­G­PT und ähn­liche Sys­teme als voll­w­er­tige sprach­liche und kog­ni­tive Agen­ten betra­chtet wer­den soll­ten, die in der Lage sind, bedeu­tungsvoll zu kom­mu­nizieren, Überzeu­gun­gen und Wün­sche zu haben sowie Pläne zu for­mulieren und auszuführen. Diese Sichtweise fordert eine dif­feren­zierte Betra­ch­tung der Fähigkeit­en von LLMs und betont, dass sie nicht ein­fach als Werkzeuge betra­chtet wer­den soll­ten.

Prak­tis­che Imp­lika­tio­nen

Die Diskus­sion über LLMs hat weitre­ichende Imp­lika­tio­nen für ver­schiedene Bere­iche, darunter:

  • Forschung und Tech­nolo­gie: Die Antworten auf die oben genan­nten Fra­gen wer­den die Ziele und Meth­o­d­en der KI-Forschung bee­in­flussen. Wenn LLMs als echte kog­ni­tive Agen­ten gel­ten, müssen neue ethis­che und sicher­heit­stech­nis­che Stan­dards entwick­elt wer­den.
  • Poli­tik und Reg­ulierung: Entschei­dungsträger müssen sich mit den rechtlichen und gesellschaftlichen Kon­se­quen­zen auseinan­der­set­zen, die sich aus der Annahme ergeben, dass KI-Sys­teme über eigene Überzeu­gun­gen und Ziele ver­fü­gen.

Faz­it

Ins­ge­samt plädiert das Doku­ment dafür, LLMs als kom­plexe, poten­ziell autonome Entitäten zu betra­cht­en, die unser Ver­ständ­nis von Intel­li­genz, Kom­mu­nika­tion und ethis­chen Stan­dards her­aus­fordern. Die Autoren fordern eine kri­tis­che Auseinan­der­set­zung mit den method­ol­o­gis­chen Ansätzen in der Philoso­phie der KI, um die Diskus­sion über diese neuen „philosophis­chen Aliens“ voranzutreiben.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert