Neuer 3D-Sensor entwickelt – Bessere Sicht für bessere Roboter

Das Europäische Forschungsprojekt TACO (Threedimensional Adaptive Camera with Object Detection and Foveation) hat ein 3D-Sensor-System entwickelt, das Robotern eine menschenähnliche Wahrnehmung der Welt ("foveation") ermöglicht und diese mit einem höheren Level an Bewegung, Wahrnehmungsfähigkeit und Interaktionsvermögen mit alltäglichen Objekten und Umwelten ausstattet. [...]

Das bereits seit mehreren Jahren laufende Projekt mit österreichischer Beteiligung hat sich auf die Weiterentwicklung von Servicerobotern fokussiert, mit dem Ziel, deren Überblick und Verständnis für ihre Umgebung maßgeblich zu verbessern. Dadurch rückt eine neue Generation von Robotern in greifbare Nähe, die in der Lage ist, eine breite Palette an Aufgaben in verschiedenen Bereichen, wie zum Beispiel Reinigung, Bau, Wartung, Sicherheit und persönliche Betreuung zu erledigen.

Ein verbessertes Sensor-System mit echten 3D-Eigenschaften soll es den Robotern ermöglichen, mit ihrer Umwelt in einer natürlicheren und dem menschlichen Auge nacheifernden Weise zu interagieren. Die Fähigkeit des menschlichen Auges wichtige Objekte oder Elemente in unserer Umgebung ausfindig zu machen, diente den TACO-Forschern als Inspiration für die Entwicklung eines Sensors, der in der Lage ist, Daten von höherer Qualität zu produzieren, ohne die Datenmenge erhöhen zu müssen. Ein Meilenstein im Projekt war erreicht, als die Forscher den Sensor mit der Fähigkeit räumliche und zeitliche Informationen zu verarbeiten ausstatteten, damit dieser in der Folge besser mit unserer unstrukturierten Welt umgehen kann.

Der TACO-Sensor ist mit Hilfe von zwei Technologien entwickelt worden: Einerseits durch flexible und robuste Hardware basierend auf Laser-Scanning-Technologie und andererseits durch Software für schnelle Objekterkennung und Verständnis des Umfeldes.

TACO hat zum ersten Mal ein erweitertes Scan-Konzept implementiert, welches auf einer Anordnung von lenkbaren Mikrospiegeln in Kombination mit einem Puls-Laser-Distanzmesser basiert, um ein 3D-Bild zu ermöglichen, welches exakte Daten mit einer sehr hohen Punkterate bereitstellt. Darüber hinaus kann ein 3D-Erfassungssystem, basierend auf einer miniaturisierten Silizium-MEMS Technologie, in Form von kleinen Einheiten als Nutzlast auf einen Service-Roboter oder den Arm eines Industrieroboters montiert werden. Die neue Software (sog. Foveationsoftware) in Kombination mit dem Laserscanner ermöglicht eine bessere Objekterkennung und -verfolgung durch eine optimierte Abwägung zwischen Auflösung und Bildfrequenz. Dies schließt die Erkennung bestimmter Bereiche und eine erhöhte Abtastdichte in wichtigen Bereichen mit ein.

Die Entwicklung eines 3D-Sensing-Systems hat zur weiteren Forschung in den Bereichen der Robotik beigetragen, vor allem betreffend 3D-Images und Strategien zur schnelleren Bilderfassung. Darüber hinaus pflastern diese zuverlässigen Sensor-Systeme den Weg für einen viel breiteren Einsatz von Robotern in verschiedensten Anwendungsbereichen. Daher sollen sich die Marktchancen für Sensor-Hardware und Software-Hersteller auf diesem Gebiet enorm erhöhen. (pi)


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*