Autonome Autos: Erkennungsfehler der Software

Das Problem der bei selbstfahrenden Autos eingesetzten Software ist bisher die eindeutige Erkennung der von den Kameras aufgenommenen Objekten. Sie müssen u.a. zwischen Fußgängern, Kinderwagen, Radfahrern, Autos unterscheiden können, um richtig zu reagieren. [...]

Oops! Hier erkennt die Software einen Fahrradfahrer als Fußgänger.
Oops! Hier erkennt die Software einen Fahrradfahrer als Fußgänger. (c) USC Viterbi

Forscher der an der University of Southern California angesiedelten Viterbi-Ingenieursschule haben mit Kollegen der Arizona State University eine Prüfsoftware entwickelt, die Fehler in der Software autonom fahrender Autos sichtbar macht. 

Selbstlernende Software als Problem

Die in autonom fahrenden Autos eingesetzte Software lernt selbstständig. Sie macht Erfahrungen, die sie im nächsten, ähnlichen oder gleichen Fall nutzt. Derartige Programme lassen sich schlecht testen, weil niemand ganz genau weiß, aufgrund welcher Umstände sie Entscheidungen treffen. Das kann verheerende Folgen haben, wenn das Fahrzeug auf die Straße kommt.

„Erkennungssoftware zuverlässig zu machen, ist die größte Herausforderung“, sagt Viterbi-Doktorand Anand Balakrishnan. „Mit unserer Testmethode können Software-Entwickler Fehler schnell erkennen und dieses Wissen nutzen, um sie weiter zu trainieren. Es müsse vor der Zulassung eines fahrerlosen Autos auch für die eingesetzte Software eine Art Crashtest geben, so Balakrishnan.

Radler und Fußgänger verwechselt

Erkennungssoftware wird in den meisten Fällen mit gewaltigen Datenmengen gefüttert. Daran lernen die Algorithmen, die unterschiedlichen Verkehrsteilnehmer zu identifizieren. Das klappt nicht immer. Vor einem Jahr klassifizierte eine Software einen Fußgänger als nicht existent und entschied sich gegen einen Stopp. Der Fußgänger wich gerade noch rechtzeitig aus.

Die US-Forscher haben ihre Prüfsoftware an zwei maschinell lernenden Programmen getestet. Dabei stellten sie fest, dass das System einen Radfahrer von hinten nicht als solchen erkannte, weil er einem Fußgänger glich. Umgekehrt „sieht“ das System oft Phantome, also Objekte, die es gar nicht gibt. Das verhindert eine zügige Fahrt oder beendet sie gar.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*