Ein von Forschern der Auburn University trainiertes neuronales Netzwerk hat Googles bestes Bilderkennungssystem "Inception" hinters Licht geführt. [...]
Die Wissenschaftler haben dazu Objekte mittels Rotation in spezielle Positionen gebracht, wodurch es zur Falscherkennung gekommen ist. Lediglich 3,09 Prozent der 3D-Objekte konnte die Google-Engine korrekt identifizieren.
Forscher trainieren Netzwerk
Die Experten haben einen Datensatz bestehend aus 100 dreidimensionalen Bildern genutzt, um das neuronale Netzwerk in der Bilderkennung zu trainieren. Unter den Abbildungen waren Fahrzeuge, wie Schulbusse, Feuerwehrautos, Stoppschilder, Sitzbänke und Hunde. Diese 3D-Objekte wurden von den Wissenschaftlern mithilfe einer Methode, die sich „Random Search“ nennt, gezielt manipuliert. Bei ihren Tests hat Inception den größten Teil der Stichproben nicht richtig erkannt. Bei 30 Objekten lag die Erkennungsrate bei 3,09 Prozent.
Vor allem Posen, die jenseits der Norm sind, führten dazu, dass Googles Bilderkennungssystem getäuscht wurde. Den Autoren der Studie zufolge hat bereits eine leichte Modifikation einen großen Einfluss auf Inception. Schon eine Drehung von acht Grad in Bezug auf den Neigungswinkel und 9,17 Grad hinsichtlich des Rotationswinkels reichten aus, um das Bilderkennungssystem außer Gefecht zu setzen.
Be the first to comment