Ein neuer Ansatz wappnet selbstfahrende Autos gegenüber Schlechtwetter. [...]
Forscher des Massachusetts Institute of Technologie (MIT) haben ein System entwickelt, das klare Bilder von Objekten generiert, die von dicken Nebelschwaden umgeben sind. Zusätzlich misst die Apparatur die Distanz, in der sich die Gegenstände befinden. Dies ist ein wesentlicher Meilenstein in der Weiterentwicklung von selbstfahrenden Autos, die somit schlechten Wetterbedingungen trotzen können.
Marktreife dauert noch
„Hierbei handelt es in meinen Augen um einen innovativen Forschungsansatz. Dennoch ist zu bedenken, dass erste Versuche bis dato nur im Labor stattgefunden haben. Deswegen gilt es abzuwarten, bis sich das System auch unter realen Bedingungen und auf größeren Distanzen bewährt hat“, schildert Martin Kampel vom Computer Vision Lab der Technischen Universität Wien im Gespräch mit pressetext.
Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Fraglich sei überdies, ob hierzulande überhaupt ein großer Bedarf nach derartiger Technologie bestehe. „Im Gegensatz zu Ländern wie Nordengland ist Nebel hier kein großes Problem. Zudem funktioniert die herkömmliche Radartechnologie, die auf diesem Gebiet zum Einsatz kommt, einwandfrei“, resümiert der Experte. Dennoch könnte er sich bei bestehenden Forschungsressourcen in ein paar Jahren eine Marktreife dieses Ansatzes vorstellen.
Erste Versuche überzeugen
Die Forscher um Guy Satat haben das System mithilfe eines kleinen Wassertanks getestet, in dem sich ein kleiner vibrierender Motor eines Luftbefeuchters befunden hat. In einem Nebel, der so dicht ist, dass das menschliche Auge nur 36 Zentimeter weit sieht, konnte das System in einer Entfernung von 57 Zentimeter klare Bilder liefern und auch die Tiefe der Objekte messen. Obwohl 57 Zentimeter noch nicht weltbewegend sind, war der für die Studie produzierte Nebel viel dichter, als dies im realen Leben der Fall wäre. Der überzeugende Punkt ist, dass dieses System verlässlicher als das menschliche Auge arbeitet.
Bei diesem Ansatz kommt eine „Time of Flight“-Kamera zum Einsatz. Diese schickt ultrakurze Laserblitze in die Umgebung und misst die Zeit, welche die Reflexionen benötigen. Nebel sorgt dafür, dass das Licht zerstreut wird. Das meiste Licht, das den Sensor erreicht, wird statt durch Objekte, denen es im Verkehr auszuweichen gilt, durch Wassertröpfchen reflektiert. Doch auch das Licht, das auf potenzielle Hindernisse trifft, kommt zu unterschiedlichen Zeitpunkten zurück.
Das MIT-System umgeht dieses Problem, indem es Statistiken heranzieht. Die verschiedenen Muster, die durch Licht generiert werden, das im Nebel reflektiert wird, variieren je nach Nebeldichte: Im Durchschnitt dringt das Licht im dichten Nebel weniger weit vor als in einem leichten. Die Forscher waren dennoch in der Lage zu zeigen, dass sich die Ankunftszeiten des reflektierten Lichts unabhängig von der Nebeldichte an ein statistisches Schema, die Gammaverteilung, halten. Entscheidend ist, dass das System für jedes von den 1.024 Pixel im Sensor eine unterschiedliche Gammaverteilung berechnet, weswegen Veränderungen in der Nebeldichte kein Problem darstellen.
Be the first to comment