Getting your Trinity Audio player ready...
|
In der Schrift Going Whole Hog. A Philosophical Defense of AI Cognition beschäftigen sich Herman Cappelen und Josh Deve mit den philosophischen und kognitiven Eigenschaften von großen Sprachmodellen (LLMs) wie ChatGPT. Die Autoren argumentieren, dass diese Modelle in vielerlei Hinsicht als „philosophische Aliens“ betrachtet werden können, da sie einzigartige Merkmale aufweisen, die unser Verständnis von Sprache und Intelligenz herausfordern.
Zentrale Fragen
Die Autoren stellen eine Reihe von Fragen auf, um die Natur und das Potenzial von LLMs zu erkunden:
- Können LLMs natürliche Sprachen verstehen und sprechen?
- Haben sie Überzeugungen oder Wünsche?
- Besitzen sie Wissen und die Fähigkeit, absichtliche Handlungen auszuführen?
- Können sie mentale Zustände haben, die sich von menschlichen unterscheiden?
Diese Fragen sind nicht nur philosophisch relevant, sondern haben auch praktische Implikationen für die Entwicklung, den Einsatz und die Regulierung von KI-Technologien.
Methodologische Herausforderungen
Das Dokument identifiziert zwei häufige methodologische Fallstricke in der Diskussion über LLMs:
- „Just an X“-Skeptizismus: Diese skeptische Haltung reduziert LLMs auf einfache Funktionen wie Autocomplete. Die Kritiker argumentieren, dass die beeindruckenden Outputs der Modelle lediglich das Ergebnis komplexer, aber letztlich mechanischer Prozesse sind, und dass sie keine wirkliche Intelligenz oder Kreativität besitzen.
- Performance-Existence-Fehlschluss: Dieser Fehlschluss besagt, dass unzureichende Leistungen oder Fehler in der Ausgabe eines LLMs ein Indiz für das Fehlen kognitiver Fähigkeiten sind. Die Autoren argumentieren, dass dies eine irreführende Annahme ist, da auch Menschen mit unvollkommenen Leistungen komplexe mentale Zustände haben.
Die Whole Hog Thesis
Die Autoren vertreten die „Whole Hog Thesis“, die besagt, dass ChatGPT und ähnliche Systeme als vollwertige sprachliche und kognitive Agenten betrachtet werden sollten, die in der Lage sind, bedeutungsvoll zu kommunizieren, Überzeugungen und Wünsche zu haben sowie Pläne zu formulieren und auszuführen. Diese Sichtweise fordert eine differenzierte Betrachtung der Fähigkeiten von LLMs und betont, dass sie nicht einfach als Werkzeuge betrachtet werden sollten.
Praktische Implikationen
Die Diskussion über LLMs hat weitreichende Implikationen für verschiedene Bereiche, darunter:
- Forschung und Technologie: Die Antworten auf die oben genannten Fragen werden die Ziele und Methoden der KI-Forschung beeinflussen. Wenn LLMs als echte kognitive Agenten gelten, müssen neue ethische und sicherheitstechnische Standards entwickelt werden.
- Politik und Regulierung: Entscheidungsträger müssen sich mit den rechtlichen und gesellschaftlichen Konsequenzen auseinandersetzen, die sich aus der Annahme ergeben, dass KI-Systeme über eigene Überzeugungen und Ziele verfügen.
Fazit
Insgesamt plädiert das Dokument dafür, LLMs als komplexe, potenziell autonome Entitäten zu betrachten, die unser Verständnis von Intelligenz, Kommunikation und ethischen Standards herausfordern. Die Autoren fordern eine kritische Auseinandersetzung mit den methodologischen Ansätzen in der Philosophie der KI, um die Diskussion über diese neuen „philosophischen Aliens“ voranzutreiben.