Welcome to KI-Agenten   Klicken, um den Text zu hören Welcome to KI-Agenten

Kann es sein, dass wir falsch damit liegen, von KI-Sys­te­men die gle­ichen kog­ni­tiv­en Fähigkeit­en zu ver­lan­gen, wie von uns Men­schen? Reicht es stattdessen eventuell aus, wenn die Sys­teme mit uns auf halb­wegs sin­nvolle Art und Weise kom­mu­nizieren?

Benedikt Zön­nchen stellt in Gen­er­a­tive KI: Zwis­chen Werkzeug und Kom­mu­nika­tion­spart­ner diesen Stand­punkt vor.

Vertreter der starken KI glauben, “dass eine KI, die tat­säch­lich pla­nen kann, früher oder später Zugriff auf ein adap­tives Welt­mod­ell haben muss, um Sit­u­a­tio­nen ”durchzus­pie­len“ zu kön­nen”. Demge­genüber war der Kri­tik­er der Starken KI, Hubert Drey­fus, der Auf­fas­sung, dass kein Welt­mod­ell in unserem Kopf existiert. Nur die Welt selb­st könne das gesuchte Mod­ell sein.

Fol­gt man jedoch ein­er kon­struk­tivis­tis­chen Auf­fas­sung, wie sie etwa Niklas Luh­mann (1927–1998) ver­tritt, beste­ht eine große Chance, dass sich Drey­fus in diesem Punkt irrt. Ob wir ein solch­es Welt­mod­ell kon­stru­ieren kön­nen und dieses zu ein­er intel­li­gen­ten Mas­chine führt, wird die Zukun­ft zeigen. Möglicher­weise braucht es eine Kom­bi­na­tion aus sym­bol­is­ch­er und datengetrieben­er Mod­el­lierung, wobei die Fähigkeit sym­bol­is­che Manip­u­la­tio­nen durchzuführen, unter Umstän­den ”gel­ernt“ wer­den kann (Mar­cus, 2022)—jedoch nicht, indem man, wie es zuvor ver­sucht wurde, mit Sym­bol­en begin­nt.

Zön­nchen geht im weit­eren Ver­lauf näher auf das Konzept der Kün­stlichen Kom­mu­nika­tion von Ele­na Epos­i­to ein (vgl. dazu: Arti­fi­cial Com­mu­ni­ca­tion. How Algo­rithms Pro­duce Social Intel­li­gence) Gen­er­a­tive KI besitzt demzu­folge die Fähigkeit, an “Kom­mu­nika­tion teilzunehmen, ohne zu ver­ste­hen, was kom­mu­niziert wird—genauso wie das Papi­er ein Gedächt­nis darstellt, welch­es nicht denken kann. Damit umge­ht sie den schw­er zu definieren­den Begriff der Intel­li­genz. .. Kurz gesagt, es scheint für eine effek­tive Kom­mu­nika­tion uner­he­blich, ob sie vom Sender und der Empfän­gerin ver­standen wer­den kann. Wichtig ist lediglich, ob der Inhalt für die Empfän­gerin Sinn ergibt. Eigentlich klingt das sehr ein­leuch­t­end, gerät aber im Diskurs ins Hin­tertr­e­f­fen, wenn wir davon sprechen, ”dass Chat­G­PT ver­ste­ht was ich meine“. Wir gehen davon aus, dass es ver­ste­hen muss, da es andern­falls keine Antwort geben kön­nte, aus der ich Sinn kon­stru­ieren kann. Den Begriff ”ver­ste­hen“ sollte man deshalb, wenn über­haupt, nur metapho­risch nutzen”.

Die Frage, ob Gen­er­a­tive KI ein Werkzeug oder mehr sei, gehe daher am Kern des Prob­lems vor­bei: “Selb­st wenn diese (große Sprach­mod­elle) eben nicht ver­ste­hen, was am anderen Ende Sinn ergibt, so kön­nte es sein, dass zukün­ftig kün­stliche und soziale Sys­teme durch das Prozessieren von Sprache gekop­pelt wer­den. Zum ersten Mal in der Men­schheits­geschichte wäre es möglich, fast fließend mit Maschi­nen zu kom­mu­nizieren. Diese Kop­pelung kön­nte der zwis­chen sozialen und psy­chis­chen Sys­te­men ähneln. Die Schnittstelle zu diversen dig­i­tal­en Sys­te­men ist ver­mut­lich bald, wenn gewün­scht, als Sprach­schnittstelle real­isier­bar und zwar mit all den Vor- und Nachteilen des kontin­gen­ten Cha- rak­ters der Kom­mu­nika­tion. Eine solche Kop­plung kön­nte auch bedeuteten, dass sich eine Sym­biose bilden kön­nte, ähn­lich der zwis­chen sozialen Net­zw­erken und deren Nutzer:innen.”

Da KI-Sys­teme nicht wirk­lich denken kön­nen, son­dern am Kom­mu­nika­tion­sprozess teil­nehmen, stellen sie laut Epos­i­to für den Men­schen und die Gesellschaft keine echte Gefahr dar.

Der Algo­rith­mus nimmt an der Kom­mu­nika­tion teil und ver­sucht, diese aufrechtzuer­hal­ten. Es ist ja in der Tat so, dass bei Nach­frage die Falschin­for­ma­tion gewöhn­lich auf­fliegt, da das Sys­tem eben nicht intel­li­gent ist und seinen Fehler ver­schleiert oder auch nur ver­ste­ht, dass es einen Fehler began­gen hat.

Die Gesellschaft beste­ht für Luh­mann wie für die mod­erne Sys­temthe­o­rie generell aus Kom­mu­nika­tion. Der Ansatz hat jedoch seine Gren­zen bzw. Tück­en:

Nach Espos­i­to wer­den die Massen­me­di­en auch in Zukun­ft kein objek­tives Fen­ster in die Welt bieten kön­nen. Stattdessen bauen sie eine eigene spez­i­fis­che Welt auf, die zur Ref­eren­zwelt der Öffentlichkeit wird. Diese ist nicht beliebig und hält die Gesellschaft in einem rast­losen Zus­tand. Die Gefahr ist nicht nur, dass falsche Infor­ma­tio­nen ver­bre­it­et wer­den, son­dern dass die Ref­eren­zwelt zer­bröck­elt, sodass nie­mand mehr plau­si­bel davon aus­ge­hen kann, informiert zu sein und ein­er Gemein­schaft von Men­schen anzuge­hören, die sich auf diesel­ben Nachricht­en bezieht (Espos­i­to, 2024, S. 66). Ein­er­seits muss die offene Gesellschaft mehrere Wel­ten tolerieren; ander­er­seits wäre eine Gesellschaft, in der alle Indi­viduen in ihrer eige­nen Welt leben, wohl keine Gesellschaft mehr.

Weit­ere Infor­ma­tio­nen:

Arti­fi­cial Com­mu­ni­ca­tion? The Pro­duc­tion of Con­tin­gency by Algo­rithms

Intel­li­gent or Com­mu­nica­tive?: On Ele­na Esposito’s “Arti­fi­cial Com­mu­ni­ca­tion”

Why Algo­rithms Can’t Think: “Arti­fi­cial Com­mu­ni­ca­tion” by Ele­na Espos­i­to

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Klicken, um den Text zu hören