Autonome Autos: Neues System schützt Menschenmenge

Forscher der Stanford University und des Toyota Research Institute haben ein System entwickelt, das Unfälle von autonomen Fahrzeugen und Robotern verhindern soll, die sich in dicht gedrängten Menschenmengen bewegen. [...]

In diesem Testlauf navigiert der Roboter problemlos durch Menschenmenge.
In diesem Testlauf navigiert der Roboter problemlos durch Menschenmenge. (c) Stanford University, Nishimura

Das gemeinschaftlich von der Stanford University und dem Toyota Research Institute neu entwickelte System setzt auf eine Kombination aus maschinellem Lernen und speziellen Algorithmen, um die Bewegungen von bis zu 50 Personen in der näheren Umgebung möglichst akkurat vorherzusagen und rechtzeitig optimale Ausweichmanöver einzuleiten.

Noch große Herausforderung

„Ziel unserer Arbeit ist es, die Sicherheit bei selbstfahrenden Autos und Robotern zu verbessern, indem wir die Menschen in ihrer Umgebung aufmerksam beobachten und daraus ableiten, wie sie sich in Zukunft verhalten werden“, zitiert „TechXpore“ die beiden Projektleiter Haruki Nishimura und Boris Ivanovic vom Multi-Robot Systems Lab der Stanford University. Gerade in größeren Menschenmengen sei ein sicheres Navigieren eine sehr große Herausforderung. „Das können wir nur schaffen, wenn es uns gelingt, die Bewegungen der Personen vorherzusagen, um dann möglichst risikolos und kollisionsfrei ans Ziel zu kommen“, betonen die Experten.

Bestehende Ansätze für die Kontrolle von autonomen Vehikeln, die sich im Umfeld von größeren Personengruppen bewegen, hätten Probleme damit, die äußerst dynamischen Prozesse in ihrer Umgebung zu erfassen. „Unser System setzt hingegen auf ein sehr breit gefächertes Modell der menschlichen Bewegungen, das auf Daten aus dem echten Leben basiert“, erläutern die Forscher. So werde stets nicht nur eine mögliche künftige Bewegung prognostiziert, sondern gleich eine ganze Reihe. „Die Berechnungen laufen dabei in Sekundenbruchteilen ab und wiederholen sich kontinuierlich, während sich der Roboter weiterbewegt“, so Nishimura und Ivanovic.

„Ergebnisse sehr vielversprechend“

Die Wissenschaftler entwickelten zunächst ein Modell des maschinellen Lernens und trainierten dieses darauf, die künftigen Bewegungen von Menschen in der Nähe von Robotern vorherzusagen. Danach setzten sie auf Basis dieses Modells einen Algorithmus auf, der das potenzielle Kollisionsrisiko der Bewegungen eines Roboters zu jedem beliebigen Zeitpunkt berechnet. „Dieser Algorithmus wählt automatisch das optimale Ausweichmanöver aus, durch das sich das Risiko eines Zusammenstoßes mit Menschen oder Autos drastisch reduzieren lässt“, erklären Erfinder.

Zur Evaluierung der Praxistauglichkeit ihres Systems führten die Forscher sowohl Simulationsstudien als auch Experimente in der realen Welt durch. Bei Ersteren wurde die Performance mit drei bestehenden Anti-Kollisions-Technologien verglichen, die für eine Navigation in Situationen mit bis zu 50 Personen gedacht sind, und bei Letzteren ließen sie einen Roboter namens „Quijabot“ durch eine Halle mit fünf menschlichen Testsubjekten steuern. „Die Ergebnisse waren sehr vielversprechend. Die Leistung unseres Systems hat alle anderen Lösungen klar übertroffen“, schildern Nishimura und Ivanovic.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*