Getting your Trinity Audio player ready...
|
Erik J. Larsons “Der Mythos der Künstlichen Intelligenz: Warum Computer nicht so denken können wie wir” stellt den weit verbreiteten Glauben an die unvermeidliche und unmittelbar bevorstehende Ankunft von KI auf menschlichem Niveau und Superintelligenz in Frage. Larson argumentiert, dass dieser Glaube ein kultureller Mythos und keine wissenschaftliche Realität ist und dass die aktuellen KI-Ansätze in ihrer Fähigkeit, menschliche Intelligenz zu replizieren, grundlegend begrenzt sind.
Das Buch ist in drei Teile gegliedert, die jeweils verschiedene Facetten dieses “Mythos” beleuchten.
Teil I: Die vereinfachte Welt
Larson beginnt damit, die Ursprünge des KI-Mythos auf Alan Turings grundlegende Arbeit zurückzuführen. Er behauptet, dass Turing, obwohl brillant, einen “Intelligenzfehler” begangen habe, indem er Intelligenz auf bloße Problemlösung vereinfachte und sich auf “Einfallsreichtum” (Regelbefolgung) statt auf “Intuition” (die Fähigkeit zu spontanen Urteilen oder Vermutungen) konzentrierte. Diese Vereinfachung führte zur Entwicklung von engen KI-Anwendungen, die in bestimmten Bereichen wie Spielen erfolgreich sind, sich aber grundlegend von der allgemeinen menschlichen Intelligenz unterscheiden. Larson weitet diese Kritik auf den “Superintelligenzfehler” aus, der von Persönlichkeiten wie I.J. Good und Nick Bostrom populär gemacht wurde, die eine exponentielle Selbstverbesserung der KI vorhersagen, die dazu führt, dass Maschinen die menschliche Intelligenz weit übertreffen. Larson argumentiert, dass dieses Konzept fehlerhaft ist, da selbst John Von Neumann die inhärente Schwierigkeit von Maschinen, intelligentere Versionen ihrer selbst zu entwerfen, erkannte. Er vergleicht die vorherrschende KI-Erzählung mit “technologischem Kitsch”, einer oberflächlichen Vereinfachung komplexer Ideen, die die menschliche Natur abwertet und eine “technowissenschaftliche” Weltanschauung fördert, die das menschliche Potenzial auf eine maschinenähnliche Funktion reduziert. Er betont, dass menschliche Intelligenz implizites Wissen beinhaltet und nicht vollständig formalisiert werden kann, ein Punkt, der vom Philosophen Michael Polanyi hervorgehoben wird.
Teil II: Das Problem der Inferenz
Dieser Abschnitt befasst sich mit den wissenschaftlichen Grenzen der aktuellen KI, insbesondere ihrer Abhängigkeit von Deduktion und Induktion, und argumentiert, dass diese Schlussfolgerungsmethoden für das Erreichen allgemeiner Intelligenz unzureichend sind.
- Deduktion: Obwohl nützlich für regelbasierte Systeme und die Gewährleistung von Sicherheit (wenn Prämissen wahr sind), erzeugt Deduktion kein neues Wissen und hat Schwierigkeiten mit “Relevanzproblemen” in der unübersichtlichen realen Welt.
- Induktion: Moderne KI, einschließlich maschinellem Lernen und Deep Learning, basiert hauptsächlich auf Induktion und lernt aus riesigen Datensätzen, um Muster zu finden und Vorhersagen zu treffen. Obwohl effektiv für Aufgaben wie Bilderkennung oder Spam-Filterung, ist die Induktion durch das “Problem der Induktion” (wie von David Hume und Bertrand Russells “induktivistischem Truthahn”-Analogie formuliert) inhärent begrenzt. Induktive Systeme sind “brüchig”, was bedeutet, dass kleine Änderungen außerhalb ihrer Trainingsdaten zu erheblichen Fehlern führen können, und sie leiden unter “Häufigkeitsannahmen” und “Modellsättigung”, was ihre Fähigkeit, seltene Ereignisse zu verarbeiten oder den Kontext wirklich zu verstehen, behindert. Larson hebt hervor, dass diese Systeme, selbst mit “Big Data”, lediglich das Verständnis simulieren, anstatt es zu erreichen.
- Abduktion: Larson postuliert, dass das fehlende Element in der KI die abduktive Inferenz ist, ein Konzept, das von Charles Sanders Peirce vertreten wurde. Abduktion beinhaltet die Bildung erklärender Hypothesen oder “Vermutungen” aus überraschenden Beobachtungen – ein entscheidender Aspekt des gesunden Menschenverstandes, der wissenschaftlichen Entdeckung und des Verständnisses natürlicher Sprache. Im Gegensatz zu Deduktion oder Induktion ist Abduktion konjektural und nicht-monoton (Schlussfolgerungen können mit neuen Informationen revidiert werden). Aktuellen KI-Systemen fehlt diese grundlegende Fähigkeit, was zu anhaltenden Herausforderungen in Bereichen wie den “Winograd-Schemata” (Tests zur Überprüfung des gesunden Menschenverstandes) und dem echten Konversationsverständnis führt. Er demonstriert, wie beeindruckende KI-Leistungen, wie der Jeopardy!-Sieg von IBM Watson, oft “enge KI”-Erfolge sind, die für spezifische Spielregeln und Datenmuster optimiert wurden, anstatt für echte allgemeine Intelligenz.
Teil III: Die Zukunft des Mythos
Larson schließt mit der Untersuchung der schädlichen Folgen der Aufrechterhaltung des KI-Mythos. Er argumentiert, dass die Konzentration auf datengesteuerte, enge KI, die oft als unvermeidlicher Fortschritt hin zu menschlicher Intelligenz dargestellt wird, echte wissenschaftliche Innovationen unterdrückt. Er kritisiert groß angelegte “Data Brain”-Projekte in der Neurowissenschaft (wie das Human Brain Project), die massive Datenerfassung und Simulation über theoretische Durchbrüche stellen, was in Ermangelung einer vereinheitlichenden Gehirntheorie zu “Overfitting” und “Scheinkorrelationen” führt. Diese “Megabuck-Wissenschaft”, wie Norbert Wiener sie nannte, entwertet den individuellen menschlichen Intellekt und fördert einen “antihumanen” Trend, bei dem das menschliche Potenzial zugunsten der maschinellen Überlegenheit heruntergespielt wird. Larson warnt, dass diese kulturelle “Verwirrung” zu einer Konzentration auf kurzfristige Gewinne aus bestehenden Technologien führt, anstatt in die radikalen konzeptuellen Innovationen zu investieren, die für einen echten KI-Fortschritt erforderlich sind. Er fordert eine erneute Wertschätzung der menschlichen Intelligenz und eine ehrlichere Einschätzung der aktuellen Grenzen der KI und betont, dass das Vertrauen in KI-Systeme aus der Anerkennung ihrer Grenzen resultieren sollte, nicht aus einem mythischen Glauben an ihre bevorstehende Empfindungsfähigkeit oder Überlegenheit.
Quelle: The Myth of Artificial Intelligence