Welcome to KI-Agenten   Klicken, um den Text zu hören Welcome to KI-Agenten
manuelle-intelligenz

Häu­fig beschränkt sich die Diskus­sion über die Möglichkeit­en der Kün­stlichen Intel­li­genz darauf, die Funk­tio­nen des men­schlichen Gehirns zu simulieren. Dabei geht die Bedeu­tung der Hand als Werkzeug des Geistes unter.

Ein­er der Orte, an denen daran gear­beit­et wird, Robot­er mit Manueller Intel­li­genz auszus­tat­ten, ist das Forschungsin­sti­tut für Kog­ni­tion und Robotik (CoR-Lab) an der Uni­ver­sität Biele­feld, das der Ver­fass­er bere­its vor eini­gen Jahren besuchte und ein Gespräch mit dem dama­li­gen Leit­er, Prof. Dr. Helge Rit­ter, führte(Spitzen­forschung in OWL – Zu Besuch bei Prof. Dr. Helge Rit­ter im CITEC – Exzel­len­z­clus­ter an der Uni­ver­sität Biele­feld).

In ihrer Forschung beschäfti­gen sich die Biele­felder Wis­senschaftler u.a. mit der Frage, inwieweit Robot­er in der Lage sind, die manuellen Fähigkeit­en der Men­schen nachzu­bilden, Robot­er gefüh­lvoll zu machen. Rit­ter spricht in dem Zusam­men­hang von Manueller Intel­li­genz. In dem Vor­trag Von Bewe­gung zu Begreifen — Manuelle Intel­li­genz für Robot­er (Audio-Aufze­ich­nung: http://www.awhamburg.de/fileadmin/redakteure/Podcasts/2013–04-11_Ritter.mp3) erläutert Prof. Dr. Rit­ter die Her­aus­forderun­gen, mit denen die Robotik bei dem Ver­such kon­fron­tiert ist, die kom­plex­en Koor­di­na­tionsvorgänge der men­schlichen Hand auf Robot­er zu über­tra­gen. Was für uns mehr oder weniger selb­stver­ständliche Hand­lun­gen des All­t­ags sind, wie das Drehen eines Türk­naufs, das Fal­ten von Papi­er oder das Öff­nen ein­er Flasche mit Drehver­schluss, ist für einen Robot­er eine enorme Her­aus­forderung. Wie bekom­men wir die Greif­man­nig­faltigkeit des Men­schen in den Robot­er? Wie kann ein Robot­er die biman­uale Koor­di­na­tion anthro­po­mor­pher Hände simulieren?

Ein Weg führt über die Mus­ter­erken­nung und die Bil­dung von Kat­e­gorien. Dabei wer­den u.a. Com­put­ersehsys­teme, Tast­sen­soren (Tak­tile Erken­nung von Objek­ten) und Bewe­gungstrack­ing einge­set­zt. Mit der Zeit, in fort­laufend­en Tests, ver­fein­ert der Robot­er seine Fähigkeit­en. Selb­st der Men­sch kann in seinem Leben die Greif­man­nig­faltigkeit, die ihm biol­o­gisch mit­gegeben ist, nicht auss­chöpfen, d.h. die Kom­bi­na­tion­s­möglichkeit­en, die mit den 20 Bewe­gungs­frei­heits­graden und drei möglichen Stel­lun­gen (Gelenkwinkeln) der Hand gegeben sind, kön­nen wir während unseres Lebens nicht aus­pro­bieren. Wir real­isieren nur eine geringe Teil­menge der Möglichkeit­en. So auch der Robot­er, wen­ngle­ich — derzeit jeden­falls — in deut­lichem gerin­gerem Umfang als der Men­sch. Erle­ichtert wird die Forschung dadurch, dass für Hand­lun­gen immer nur ein Teil der Gelenke benötigt wird, der Robot­er — prinzip­iell — also nicht über alle Kom­bi­na­tion­s­möglichkeit­en der men­schlichen Hand ver­fü­gen muss.

Sprache als Greif­prozess

Als Werkzeug des Geistes hat die Hand auch einen Ein­fluss auf unsere Sprache bzw. unseren Sprachge­brauch. Aus­drücke wie “begreifen” oder Redewen­dun­gen wie “Er bekommt die Sache in den Griff” oder “Es ist zum Greifen nah”, “Es liegt auf der Hand” oder “es ist mit Hän­den zu greifen” weisen darauf hin. Laut Rit­ter bekom­men wir über Worte Zugriff auf gedankliche Objek­te im Gegenüber, die dort Verän­derun­gen, z.B. im Ver­ste­hen oder Ver­hal­ten, bewirken kön­nen. Auf diese Weise leis­tet die Manuelle Intel­li­genz, das tief­ere Ver­ste­hen von Hän­den, einen Beitrag zum Ver­ständ­nis von Kog­ni­tion und Ler­nen. Begriffe und Ver­ste­hen sind in unserem physikalis­chen Han­deln ver­ankert. Hände sind eine Brücke zur Welt. Nicht das Ausse­hen der Objek­te ist entschei­dend, son­dern das, was man mit ihnen machen kann. Robot­er mit manueller Intel­li­genz aus­ges­tat­tet kön­nen daher auch wichtige Hin­weise darauf liefern, wie wir selb­st Kat­e­gorien während unseres Han­delns bilden und wie Kog­ni­tion und Ler­nen zusam­men­hän­gen. Damit lässt sich die Men­sch-Mas­chine-Inter­ak­tion immer weit­er verbessern.

TacEx – Sim­u­la­tion­sumge­bung ermöglicht Robot­er mit Fin­ger­spitzenge­fühl

Auf der Con­fer­ence on Robot Learn­ing (CoRL) haben Forschende der TU Darm­stadt mit TacEx nun eine inno­v­a­tive Lösung vorgestellt, wie man Robot­er mit Fin­ger­spitzenge­fühl ausstat­ten kann. “Es han­delt sich dabei um einen zuver­läs­si­gen und genauen mod­u­laren Sim­u­la­tor für tak­tile Sen­soren von Gel­Sight. Sim­u­la­tio­nen sind vielver­sprechend für das Train­ing von Robot­ern. Die Maschi­nen ler­nen dabei durch simulierte Sit­u­a­tio­nen, in denen sie ver­schiedene Auf­gaben lösen, für ihren Ein­satz in der realen Welt. Das inno­v­a­tive Frame­work aus Darm­stadt ermöglicht den Ein­satz von Gel­Sight Mini Sen­soren für Rein­force­ment Learn­ing. Im Rah­men der Sim­u­la­tion erfüllen die Robot­er ver­schiedene Manip­u­la­tion­sauf­gaben und kön­nen dadurch ihre Fein­mo­torik trainieren”(Maschi­nen mit Fin­ger­spitzenge­fühl: präsen­tiert neue Erken­nt­nisse auf der Con­fer­ence on Robot Learn­ing).

Moravec­sches Para­dox

Bis zum heuti­gen Tag, ist das sog. Moravech­sches Para­dox gültig, wonach es ver­gle­ich­sweise ein­fach ist, Com­put­er dazu zu brin­gen, “Leis­tun­gen auf Erwach­se­nen­niveau bei Intel­li­gen­ztests oder beim Dame spie­len zu erbrin­gen, und schwierig oder unmöglich, ihnen die Fähigkeit­en eines Ein­jähri­gen bei Wahrnehmung und Mobil­ität zu ver­mit­teln. … Auch kün­stliche neu­ronale Net­ze scheit­ern am Moravec­schen Para­dox”

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Klicken, um den Text zu hören