KI gibt Roboter „Vorstellung“ von Berührung

MIT-Forscher machen allein anhand von visuellen Eindrücken ein plastisches Gefühl vorhersagbar. [...]

Roboterarm: durch Bilder Berührung "vorstellen". (c) pixabay.com, jarmoluk

Forscher am Massachusetts Institute of Technology (MIT) haben eine Künstliche Intelligenz (KI) entwickelt, die Robotern beibringt, sich durch visuelle Eindrücke von Objekten „vorzustellen“, wie sich diese anfühlen. Dadurch kann ein Roboterarm vorhersagen, welches Objekt und welchen Teil davon er anfassen wird. „Indem sich der Roboter ein Objekt ansieht, kann er sich vorstellen, wie sich die Berührung mit einer scharfen Kante oder einer glatten Oberfläche anfühlt“, so Forschungsleiter Yunzhu Li. Die KI wurde auch darauf programmiert, Berührungen in visuelle Bilder umzuwandeln.

Durch Sehen Berührung lernen

„Das Greifen von Objekten ist ein großes Thema in der Robotik. Alleine, wo ein Roboterarm hingreift, ist wichtig, aber auch, wie stark er zudrücken kann, ohne ein Objekt zu beschädigen. Prinzipiell ist es relativ schwierig, nur anhand eines Bildes von der Oberfläche des Objektes diese Informationen zu kennen. Das Ziel wäre ein völlig unbekanntes Objekte gleich beim ersten Mal richtig anzugreifen und zu transportieren“, so Hubert Gattringer, stellvertretender Leiter des Instituts für Robotik an der Johannes Kepler Universität.

Um die KI zu entwickeln, hat das Team eine gewöhnliche Web-Kamera genutzt. Diese hat fast 200 Objekte, wie Werkzeuge, Haushaltsgegenstände und Stoffe, gefilmt, wie sie mehr als 12.000 Mal angefasst wurden. Diese Videos wurden in statische Bilder konvertiert und in einer Datenbank aus drei Mio. Fotos namens „VisGel“ organisiert. Die Infos wurden einem Roboterarm gegeben, der mit einer Kamera und einem Berührungssensor ausgestattet ist. Der Arm wusste nur anhand der Bilder, an welcher Stelle er ein Objekt greifen konnte, ohne vorher mit ihm interagiert zu haben.

Virtuelle Vorstellungskraft als Ziel

Die Forscher wollten dem Roboterarm auch beibringen, anhand von Berührungen ein Bild von einem Objekt zu erstellen. Dafür wurde auch die Datenbank als Referenzmaterial verwendet. Anhand der bestehenden Bilder und Berührungssensoren konnte der Arm ein virtuelles Bild von einem Gegenstand gewinnen, den er nicht sehen konnte. Den Experten zufolge kann diese Anwendung vor allem dann nützlich sein, wenn ein Roboterarm im Dunklen arbeiten muss.

Laut Li werden Roboter durch die Verbindung der beiden Sinne Sehen und Fühlen effizienter. „Dadurch werden die Daten reduziert, die wir für Aufgaben brauchen, bei denen der Roboter ein Objekt greifen und manipulieren muss“, so Li. Zukünftig soll die KI außerhalb einer kontrollierten Umgebung zum Einsatz kommen. Bestimmte Details kann die Anwendung noch nicht erkennen, beispielsweise, wie weich ein Sofa ist, ohne es anzufassen.


Mehr Artikel

Oliver Köth, Chief Technology Officer, NTT DATA DACH (c) NTT DATA
News

GenAI-Avatare als Webbereiter für die Zukunft

Der Blick in die Zukunft gleicht oftmals einem Blick in die Glaskugel. Dennoch wollen und müssen Unternehmen wissen, was auf sie zukommt, um sich optimal auf neue Herausforderungen einstellen zu können. Generative KI und damit entwickelte Avatare können dabei helfen, indem sie völlig neue Einblicke ermöglichen. NTT DATA beantwortet die wichtigsten Fragen rund um die Methode. ​ […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*