Getting your Trinity Audio player ready...

Mered­ith Whit­tak­er, die Präsi­dentin des Mes­sen­ger-Dien­stes Sig­nal, äußerte auf der SXSW 2025-Kon­ferenz in Austin, Texas, deut­liche Bedenken hin­sichtlich der Sicher­heit von „agen­tis­ch­er“ KI. Diese Form der Kün­stlichen Intel­li­genz, die in der Lage ist, eigen­ständig Auf­gaben zu erledi­gen und Entschei­dun­gen zu tre­f­fen, kön­nte erhe­bliche Daten­schutzrisiken für die Nutzer darstellen1Sig­nal-Präsi­dentin warnt: Die beliebten „Agenten“-KI-Bots bedro­hen die Pri­vat­sphäre der Nutzer.

Whit­tak­er warnte, dass die zunehmende Autonomie solch­er KI-Agen­ten dazu führen kön­nte, dass sie umfassenden Zugriff auf per­sön­liche Dat­en benöti­gen. Sie erk­lärte, dass die Kon­trolle, die wir diesen Sys­te­men anver­trauen, gefährlich sei, da sie möglicher­weise sen­si­ble Infor­ma­tio­nen wie Kred­itkarten- und Kalen­der­dat­en abfra­gen müssten. Ein Beispiel, das sie anführte, ist ein KI-Agent, der in der Lage wäre, Konz­erte zu find­en, Tick­ets zu buchen und Fre­unde über diese Ereignisse zu informieren. Für jeden dieser Schritte müsste der Agent auf Dat­en zugreifen, die Nutzer möglicher­weise pri­vat hal­ten möcht­en.

Sie betonte, dass ein KI-Agent, der solche Auf­gaben aus­führt, tief in das per­sön­liche Sys­tem des Nutzers ein­greifen müsste, ein­schließlich des Zugriffs auf Brows­er, Kred­itkarten­in­for­ma­tio­nen und Kom­mu­nika­tions-Apps wie Sig­nal. „Er bräuchte Zugang zu unserem gesamten Sys­tem, mit etwas, das wie Root-Berech­ti­gun­gen aussieht“, sagte Whit­tak­er. Diese Art von Zugriff kön­nte dazu führen, dass Dat­en im Klar­text ver­ar­beit­et wer­den, was die Sicher­heit weit­er gefährdet, da es kein Mod­ell gibt, das dies auf sichere Weise tun kann.

Zusät­zlich wies sie darauf hin, dass es wahrschein­lich sei, dass ein KI-Agent Dat­en außer­halb des Geräts ver­ar­beit­en würde, indem er Infor­ma­tio­nen an einen Cloud-Serv­er sendet. Dies kön­nte zu einem Ver­lust der Kon­trolle über per­sön­liche Dat­en führen.

Whit­tak­er ist nicht die einzige, die solche Bedenken äußert. Der kanadis­che Wis­senschaftler Yoshua Ben­gio, ein­er der Väter der KI, gab ähn­liche War­nun­gen ab. Er betonte auf dem Weltwirtschafts­fo­rum in Davos, dass katas­trophale Szenar­ien mit kün­stlich­er all­ge­mein­er Intel­li­genz (AGI) oder Super­in­tel­li­genz auftreten kön­nten, wenn wir solche autonomen Agen­ten entwick­eln. Ben­gio plädierte dafür, die Risiken frühzeit­ig zu erken­nen und wis­senschaftlich zu ver­ste­hen, um sicherzustellen, dass kün­ftige Entwick­lun­gen in der KI-Tech­nolo­gie sich­er und ver­ant­wor­tungs­be­wusst erfol­gen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert