Getting your Trinity Audio player ready...

Erik J. Lar­sons “Der Mythos der Kün­stlichen Intel­li­genz: Warum Com­put­er nicht so denken kön­nen wie wir” stellt den weit ver­bre­it­eten Glauben an die unver­mei­dliche und unmit­tel­bar bevorste­hende Ankun­ft von KI auf men­schlichem Niveau und Super­in­tel­li­genz in Frage. Lar­son argu­men­tiert, dass dieser Glaube ein kul­tureller Mythos und keine wis­senschaftliche Real­ität ist und dass die aktuellen KI-Ansätze in ihrer Fähigkeit, men­schliche Intel­li­genz zu replizieren, grundle­gend begren­zt sind.

Das Buch ist in drei Teile gegliedert, die jew­eils ver­schiedene Facetten dieses “Mythos” beleucht­en.

Teil I: Die vere­in­fachte Welt

Lar­son begin­nt damit, die Ursprünge des KI-Mythos auf Alan Tur­ings grundle­gende Arbeit zurück­zuführen. Er behauptet, dass Tur­ing, obwohl bril­lant, einen “Intel­li­gen­zfehler” began­gen habe, indem er Intel­li­genz auf bloße Prob­lem­lö­sung vere­in­fachte und sich auf “Ein­fall­sre­ich­tum” (Regel­be­fol­gung) statt auf “Intu­ition” (die Fähigkeit zu spon­ta­nen Urteilen oder Ver­mu­tun­gen) konzen­tri­erte. Diese Vere­in­fachung führte zur Entwick­lung von engen KI-Anwen­dun­gen, die in bes­timmten Bere­ichen wie Spie­len erfol­gre­ich sind, sich aber grundle­gend von der all­ge­meinen men­schlichen Intel­li­genz unter­schei­den. Lar­son weit­et diese Kri­tik auf den “Super­in­tel­li­gen­zfehler” aus, der von Per­sön­lichkeit­en wie I.J. Good und Nick Bostrom pop­ulär gemacht wurde, die eine expo­nen­tielle Selb­stverbesserung der KI vorher­sagen, die dazu führt, dass Maschi­nen die men­schliche Intel­li­genz weit übertr­e­f­fen. Lar­son argu­men­tiert, dass dieses Konzept fehler­haft ist, da selb­st John Von Neu­mann die inhärente Schwierigkeit von Maschi­nen, intel­li­gen­tere Ver­sio­nen ihrer selb­st zu entwer­fen, erkan­nte. Er ver­gle­icht die vorherrschende KI-Erzäh­lung mit “tech­nol­o­gis­chem Kitsch”, ein­er ober­fläch­lichen Vere­in­fachung kom­plex­er Ideen, die die men­schliche Natur abw­ertet und eine “tech­nowis­senschaftliche” Weltan­schau­ung fördert, die das men­schliche Poten­zial auf eine maschi­nenähn­liche Funk­tion reduziert. Er betont, dass men­schliche Intel­li­genz implizites Wis­sen bein­hal­tet und nicht voll­ständig for­mal­isiert wer­den kann, ein Punkt, der vom Philosophen Michael Polanyi her­vorge­hoben wird.

Teil II: Das Prob­lem der Inferenz

Dieser Abschnitt befasst sich mit den wis­senschaftlichen Gren­zen der aktuellen KI, ins­beson­dere ihrer Abhängigkeit von Deduk­tion und Induk­tion, und argu­men­tiert, dass diese Schlussfol­gerungsmeth­o­d­en für das Erre­ichen all­ge­mein­er Intel­li­genz unzure­ichend sind.

  • Deduk­tion: Obwohl nüt­zlich für regel­basierte Sys­teme und die Gewährleis­tung von Sicher­heit (wenn Prämis­sen wahr sind), erzeugt Deduk­tion kein neues Wis­sen und hat Schwierigkeit­en mit “Rel­e­vanzprob­le­men” in der unüber­sichtlichen realen Welt.
  • Induk­tion: Mod­erne KI, ein­schließlich maschinellem Ler­nen und Deep Learn­ing, basiert haupt­säch­lich auf Induk­tion und lernt aus riesi­gen Daten­sätzen, um Muster zu find­en und Vorher­sagen zu tre­f­fen. Obwohl effek­tiv für Auf­gaben wie Bilderken­nung oder Spam-Fil­terung, ist die Induk­tion durch das “Prob­lem der Induk­tion” (wie von David Hume und Bertrand Rus­sells “induk­tivis­tis­chem Truthahn”-Analogie for­muliert) inhärent begren­zt. Induk­tive Sys­teme sind “brüchig”, was bedeutet, dass kleine Änderun­gen außer­halb ihrer Train­ings­dat­en zu erhe­blichen Fehlern führen kön­nen, und sie lei­den unter “Häu­figkeit­san­nah­men” und “Mod­ell­sät­ti­gung”, was ihre Fähigkeit, sel­tene Ereignisse zu ver­ar­beit­en oder den Kon­text wirk­lich zu ver­ste­hen, behin­dert. Lar­son hebt her­vor, dass diese Sys­teme, selb­st mit “Big Data”, lediglich das Ver­ständ­nis simulieren, anstatt es zu erre­ichen.
  • Abduk­tion: Lar­son pos­tuliert, dass das fehlende Ele­ment in der KI die abduk­tive Inferenz ist, ein Konzept, das von Charles Sanders Peirce vertreten wurde. Abduk­tion bein­hal­tet die Bil­dung erk­lären­der Hypothe­sen oder “Ver­mu­tun­gen” aus über­raschen­den Beobach­tun­gen – ein entschei­den­der Aspekt des gesun­den Men­schen­ver­standes, der wis­senschaftlichen Ent­deck­ung und des Ver­ständ­niss­es natür­lich­er Sprache. Im Gegen­satz zu Deduk­tion oder Induk­tion ist Abduk­tion kon­jek­tur­al und nicht-monot­on (Schlussfol­gerun­gen kön­nen mit neuen Infor­ma­tio­nen rev­i­diert wer­den). Aktuellen KI-Sys­te­men fehlt diese grundle­gende Fähigkeit, was zu anhal­tenden Her­aus­forderun­gen in Bere­ichen wie den “Wino­grad-Schema­ta” (Tests zur Über­prü­fung des gesun­den Men­schen­ver­standes) und dem echt­en Kon­ver­sa­tionsver­ständ­nis führt. Er demon­stri­ert, wie beein­druck­ende KI-Leis­tun­gen, wie der Jeopardy!-Sieg von IBM Wat­son, oft “enge KI”-Erfolge sind, die für spez­i­fis­che Spiel­regeln und Daten­muster opti­miert wur­den, anstatt für echte all­ge­meine Intel­li­genz.

Teil III: Die Zukun­ft des Mythos

Lar­son schließt mit der Unter­suchung der schädlichen Fol­gen der Aufrechter­hal­tung des KI-Mythos. Er argu­men­tiert, dass die Konzen­tra­tion auf datenges­teuerte, enge KI, die oft als unver­mei­dlich­er Fortschritt hin zu men­schlich­er Intel­li­genz dargestellt wird, echte wis­senschaftliche Inno­va­tio­nen unter­drückt. Er kri­tisiert groß angelegte “Data Brain”-Projekte in der Neu­rowis­senschaft (wie das Human Brain Project), die mas­sive Daten­er­fas­sung und Sim­u­la­tion über the­o­retis­che Durch­brüche stellen, was in Erman­gelung ein­er vere­in­heitlichen­den Gehirn­the­o­rie zu “Over­fit­ting” und “Scheinko­r­re­la­tio­nen” führt. Diese “Megabuck-Wis­senschaft”, wie Nor­bert Wiener sie nan­nte, entwertet den indi­vidu­ellen men­schlichen Intellekt und fördert einen “anti­hu­ma­nen” Trend, bei dem das men­schliche Poten­zial zugun­sten der maschinellen Über­legen­heit herun­terge­spielt wird. Lar­son warnt, dass diese kul­turelle “Ver­wirrung” zu ein­er Konzen­tra­tion auf kurzfristige Gewinne aus beste­hen­den Tech­nolo­gien führt, anstatt in die radikalen konzeptuellen Inno­va­tio­nen zu investieren, die für einen echt­en KI-Fortschritt erforder­lich sind. Er fordert eine erneute Wertschätzung der men­schlichen Intel­li­genz und eine ehrlichere Ein­schätzung der aktuellen Gren­zen der KI und betont, dass das Ver­trauen in KI-Sys­teme aus der Anerken­nung ihrer Gren­zen resul­tieren sollte, nicht aus einem mythis­chen Glauben an ihre bevorste­hende Empfind­ungs­fähigkeit oder Über­legen­heit.

Quelle: The Myth of Arti­fi­cial Intel­li­gence

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert