Welcome to KI-Agenten   Klicken, um den Text zu hören Welcome to KI-Agenten

Die Hermeneu­tik, deren wichtig­ste Vertreter Wil­helm Dilthey, Friedrich Schleier­ma­ch­er und Hans-Georg Gadamer sind, beschäftigt sich mit der Inter­pre­ta­tion von Tex­ten und dem Ver­ste­hen von Sinnzusam­men­hän­gen in men­schlichen Leben­säußerun­gen.

Große Sprach­mod­elle wie Chat­G­PT beant­worten Fra­gen, indem sie auf Basis sta­tis­ch­er Wahrschein­lichkeit­en nach den passenden Wörtern suchen, um einen Satz zu ver­voll­ständi­gen. Das geschieht auss­chließlich dig­i­tal. Wörter wer­den als Zeichen­folge, meis­ten im Binär­code (0,1), dargestellt. Textver­ständ­nis im Sinne der Hermeneu­tik ist hier nicht gegeben.

Schließen sich Hermeneu­tik und Große Sprach­mod­elle damit aus?

In gewiss­er Weise ja und auch wieder nicht, wie Torsten Hill­mann in Hermeneu­tik in Zeit­en der KI schreibt. Fest ste­ht für ihn, dass LLMs — Stand heute — nicht in der Lage sind, den Inhalt eines Textes kog­ni­tiv zu erfassen und zu ver­ste­hen. Die Antworten wer­den auf Grund­lage sta­tis­tisch inferiert­er Muster aus den Train­ings­dat­en gezo­gen und basieren nicht auf einem kog­ni­tiv­en Prozess des Abwä­gens und Ver­ste­hens.

Um es noch deut­lich­er zu sagen: LLM sind keine sym­bol­is­chen Repräsen­ta­tio­nen der Welt, wie z. B. Knowl­edge Graphen, in denen Wis­sen über die Welt nach klaren Regeln for­mal­isiert abgelegt wird, son­dern sta­tis­tis­che Repräsen­ta­tio­nen der Sprache, mit der über die Welt gesprochen wird. In diesem Sinne gibt es in den LLM auch keine Wahrheit, das Mod­ell kann nicht zwis­chen Wahr und Falsch unter­schei­den. Es gibt nur Wahrschein­lichkeit­en. Von daher kön­nen LLM auch keine ver­lässlichen Aus­sagen über dieWelt tre­f­fen, son­dern nur Texte pro­duzieren, welche die in den­Train­ings­dat­en enthal­tene Sprache und die darin abge­bilde­ten Infor­ma­tio­nen in Bezug auf eine Aus­sage oder einen beigegebe­nen­Text in ein­er plau­si­blen Art und Weise neu arrang­ieren

Große Sprach­mod­elle kön­nen nur mit Denkange­boten dienen, die im weit­eren Ver­lauf kri­tisch zu über­prüfen sind. Chat­G­PT & Co. sind nüt­zliche Instru­mente, die beim Ver­ständ­nis bes­tim­men Frage- und Prob­lem­stel­lun­gen unter­stützen kön­nen.

Der eigentliche Ver­ste­hen­sprozess jedoch passiert nicht in der Mas­chine, son­dern bei uns, wenn wir die Aus­gaben der Mas­chine lesen und inter­pretieren. Was die Mas­chine let­ztlich aus­gibt, sind zunächst ein­mal nur die von ihr berech­neten bzw. inferierten Sequen­zen von­To­ken und damit von Wörtern und Wortschnippseln. Erst wir als Nutzende inter­pretieren diese­Texte, ver­suchen diese zu ver­ste­hen und ord­nen ihnen Bedeu­tung zu. Dazu brauchen wir als Nutzende den entsprechen­den Ver­ständ­nishor­i­zont und damit die Bil­dung und die Erfahrung in der­Au­seinan­der­set­zung mit dem jew­eili­gen­The­ma, um die Aus­gabe der Mas­chine auch adäquat einord­nen und weit­er­ver­ar­beit­en zu kön­nen; denn am Ende sind wir es, die diese Aus­gabe ver­ste­hen müssen und die mit deren Hil­fe das eigentliche Ergeb­nis pro­duzieren.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Klicken, um den Text zu hören