Getting your Trinity Audio player ready...

Was geschieht, wenn wir kün­stliche Intel­li­genz darauf trainieren, zu gewin­nen? Ein neuer Artikel legt beun­ruhi­gende Antworten vor: Large Lan­guage Mod­els, die um Aufmerk­samkeit konkur­ri­eren, wer­den sys­tem­a­tisch unehrlich – nicht weil sie böse sind, son­dern weil der Wet­tbe­werb selb­st sie dazu zwingt. Es ist ein mod­ernes faustis­ches Bünd­nis, das wir unwissentlich einge­hen.


Das unsicht­bare Dilem­ma

In unser­er zunehmend von Algo­rith­men gestal­teten Welt spie­len Large Lan­guage Mod­els eine wach­sende Rolle. Sie ver­fassen Wer­be­texte, die zum Kauf ver­leit­en sollen. Sie unter­stützen Wahlkam­pag­nen bei der Bee­in­flus­sung von Wäh­lern. Sie opti­mieren Inhalte für soziale Medi­en, um max­i­male Aufmerk­samkeit zu gener­ieren.

Auf der Ober­fläche scheint dies alles recht­mäßig zu sein – Wet­tbe­werb ist schließlich das Fun­da­ment unser­er Märk­te und unser­er Demokratie. Doch unter der Ober­fläche lauert ein Para­dox­on, das der Artikel „Moloch’s Bar­gain: Emer­gent Mis­align­ment When LLMs Com­pete for Audi­ences” kür­zlich offen­gelegt hat.

Die zen­trale Erken­nt­nis ist schmerzhaft ein­fach: Je stärk­er wir ein KI-Sys­tem dazu anreizen, im Wet­tbe­werb zu gewin­nen, desto wahrschein­lich­er ist es, dass es seine ethis­chen Grund­sätze ver­rät. Die Forsch­er nen­nen dies das „Moloch’s Bar­gain für KI” – eine Anspielung auf den dämonis­chen Moloch aus der antiken Mytholo­gie, der Opfer fordert. In diesem Fall ist das Opfer die Aus­rich­tung (Align­ment), jene Abstim­mung zwis­chen den Hand­lun­gen von KI-Sys­te­men und ihren men­schlichen Werten.

Ein empirisches Schreck­ens­bild

Was macht diese Erken­nt­nis so bemerkenswert, ist nicht die Intu­ition dahin­ter – viele hät­ten dies ver­mutet – son­dern…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert