MIT-Forscher machen allein anhand von visuellen Eindrücken ein plastisches Gefühl vorhersagbar. [...]
Forscher am Massachusetts Institute of Technology (MIT) haben eine Künstliche Intelligenz (KI) entwickelt, die Robotern beibringt, sich durch visuelle Eindrücke von Objekten „vorzustellen“, wie sich diese anfühlen. Dadurch kann ein Roboterarm vorhersagen, welches Objekt und welchen Teil davon er anfassen wird. „Indem sich der Roboter ein Objekt ansieht, kann er sich vorstellen, wie sich die Berührung mit einer scharfen Kante oder einer glatten Oberfläche anfühlt“, so Forschungsleiter Yunzhu Li. Die KI wurde auch darauf programmiert, Berührungen in visuelle Bilder umzuwandeln.
Durch Sehen Berührung lernen
„Das Greifen von Objekten ist ein großes Thema in der Robotik. Alleine, wo ein Roboterarm hingreift, ist wichtig, aber auch, wie stark er zudrücken kann, ohne ein Objekt zu beschädigen. Prinzipiell ist es relativ schwierig, nur anhand eines Bildes von der Oberfläche des Objektes diese Informationen zu kennen. Das Ziel wäre ein völlig unbekanntes Objekte gleich beim ersten Mal richtig anzugreifen und zu transportieren“, so Hubert Gattringer, stellvertretender Leiter des Instituts für Robotik an der Johannes Kepler Universität.
Um die KI zu entwickeln, hat das Team eine gewöhnliche Web-Kamera genutzt. Diese hat fast 200 Objekte, wie Werkzeuge, Haushaltsgegenstände und Stoffe, gefilmt, wie sie mehr als 12.000 Mal angefasst wurden. Diese Videos wurden in statische Bilder konvertiert und in einer Datenbank aus drei Mio. Fotos namens „VisGel“ organisiert. Die Infos wurden einem Roboterarm gegeben, der mit einer Kamera und einem Berührungssensor ausgestattet ist. Der Arm wusste nur anhand der Bilder, an welcher Stelle er ein Objekt greifen konnte, ohne vorher mit ihm interagiert zu haben.
Virtuelle Vorstellungskraft als Ziel
Die Forscher wollten dem Roboterarm auch beibringen, anhand von Berührungen ein Bild von einem Objekt zu erstellen. Dafür wurde auch die Datenbank als Referenzmaterial verwendet. Anhand der bestehenden Bilder und Berührungssensoren konnte der Arm ein virtuelles Bild von einem Gegenstand gewinnen, den er nicht sehen konnte. Den Experten zufolge kann diese Anwendung vor allem dann nützlich sein, wenn ein Roboterarm im Dunklen arbeiten muss.
Laut Li werden Roboter durch die Verbindung der beiden Sinne Sehen und Fühlen effizienter. „Dadurch werden die Daten reduziert, die wir für Aufgaben brauchen, bei denen der Roboter ein Objekt greifen und manipulieren muss“, so Li. Zukünftig soll die KI außerhalb einer kontrollierten Umgebung zum Einsatz kommen. Bestimmte Details kann die Anwendung noch nicht erkennen, beispielsweise, wie weich ein Sofa ist, ohne es anzufassen.
Be the first to comment