Kann es sein, dass wir falsch damit liegen, von KI-Systemen die gleichen kognitiven Fähigkeiten zu verlangen, wie von uns Menschen? Reicht es stattdessen eventuell aus, wenn die Systeme mit uns auf halbwegs sinnvolle Art und Weise kommunizieren?
Benedikt Zönnchen stellt in Generative KI: Zwischen Werkzeug und Kommunikationspartner diesen Standpunkt vor.
Vertreter der starken KI glauben, “dass eine KI, die tatsächlich planen kann, früher oder später Zugriff auf ein adaptives Weltmodell haben muss, um Situationen ”durchzuspielen“ zu können”. Demgegenüber war der Kritiker der Starken KI, Hubert Dreyfus, der Auffassung, dass kein Weltmodell in unserem Kopf existiert. Nur die Welt selbst könne das gesuchte Modell sein.
Folgt man jedoch einer konstruktivistischen Auffassung, wie sie etwa Niklas Luhmann (1927–1998) vertritt, besteht eine große Chance, dass sich Dreyfus in diesem Punkt irrt. Ob wir ein solches Weltmodell konstruieren können und dieses zu einer intelligenten Maschine führt, wird die Zukunft zeigen. Möglicherweise braucht es eine Kombination aus symbolischer und datengetriebener Modellierung, wobei die Fähigkeit symbolische Manipulationen durchzuführen, unter Umständen ”gelernt“ werden kann (Marcus, 2022)—jedoch nicht, indem man, wie es zuvor versucht wurde, mit Symbolen beginnt.
Zönnchen geht im weiteren Verlauf näher auf das Konzept der Künstlichen Kommunikation von Elena Eposito ein (vgl. dazu: Artificial Communication. How Algorithms Produce Social Intelligence) Generative KI besitzt demzufolge die Fähigkeit, an “Kommunikation teilzunehmen, ohne zu verstehen, was kommuniziert wird—genauso wie das Papier ein Gedächtnis darstellt, welches nicht denken kann. Damit umgeht sie den schwer zu definierenden Begriff der Intelligenz. .. Kurz gesagt, es scheint für eine effektive Kommunikation unerheblich, ob sie vom Sender und der Empfängerin verstanden werden kann. Wichtig ist lediglich, ob der Inhalt für die Empfängerin Sinn ergibt. Eigentlich klingt das sehr einleuchtend, gerät aber im Diskurs ins Hintertreffen, wenn wir davon sprechen, ”dass ChatGPT versteht was ich meine“. Wir gehen davon aus, dass es verstehen muss, da es andernfalls keine Antwort geben könnte, aus der ich Sinn konstruieren kann. Den Begriff ”verstehen“ sollte man deshalb, wenn überhaupt, nur metaphorisch nutzen”.
Die Frage, ob Generative KI ein Werkzeug oder mehr sei, gehe daher am Kern des Problems vorbei: “Selbst wenn diese (große Sprachmodelle) eben nicht verstehen, was am anderen Ende Sinn ergibt, so könnte es sein, dass zukünftig künstliche und soziale Systeme durch das Prozessieren von Sprache gekoppelt werden. Zum ersten Mal in der Menschheitsgeschichte wäre es möglich, fast fließend mit Maschinen zu kommunizieren. Diese Koppelung könnte der zwischen sozialen und psychischen Systemen ähneln. Die Schnittstelle zu diversen digitalen Systemen ist vermutlich bald, wenn gewünscht, als Sprachschnittstelle realisierbar und zwar mit all den Vor- und Nachteilen des kontingenten Cha- rakters der Kommunikation. Eine solche Kopplung könnte auch bedeuteten, dass sich eine Symbiose bilden könnte, ähnlich der zwischen sozialen Netzwerken und deren Nutzer:innen.”
Da KI-Systeme nicht wirklich denken können, sondern am Kommunikationsprozess teilnehmen, stellen sie laut Eposito für den Menschen und die Gesellschaft keine echte Gefahr dar.
Der Algorithmus nimmt an der Kommunikation teil und versucht, diese aufrechtzuerhalten. Es ist ja in der Tat so, dass bei Nachfrage die Falschinformation gewöhnlich auffliegt, da das System eben nicht intelligent ist und seinen Fehler verschleiert oder auch nur versteht, dass es einen Fehler begangen hat.
Die Gesellschaft besteht für Luhmann wie für die moderne Systemtheorie generell aus Kommunikation. Der Ansatz hat jedoch seine Grenzen bzw. Tücken:
Nach Esposito werden die Massenmedien auch in Zukunft kein objektives Fenster in die Welt bieten können. Stattdessen bauen sie eine eigene spezifische Welt auf, die zur Referenzwelt der Öffentlichkeit wird. Diese ist nicht beliebig und hält die Gesellschaft in einem rastlosen Zustand. Die Gefahr ist nicht nur, dass falsche Informationen verbreitet werden, sondern dass die Referenzwelt zerbröckelt, sodass niemand mehr plausibel davon ausgehen kann, informiert zu sein und einer Gemeinschaft von Menschen anzugehören, die sich auf dieselben Nachrichten bezieht (Esposito, 2024, S. 66). Einerseits muss die offene Gesellschaft mehrere Welten tolerieren; andererseits wäre eine Gesellschaft, in der alle Individuen in ihrer eigenen Welt leben, wohl keine Gesellschaft mehr.
Weitere Informationen:
Artificial Communication? The Production of Contingency by Algorithms
Intelligent or Communicative?: On Elena Esposito’s “Artificial Communication”
Why Algorithms Can’t Think: “Artificial Communication” by Elena Esposito