Selbstfahrende Autos treffen bei Objekterkennung wie Computer oft ähnliche Entscheidungen. [...]
Auch Menschen missinterpretieren Objekte wie manche Computer, die in selbstfahrenden Autos zum Einsatz kommen. Das haben Forscher der Johns Hopkins University hnachgewiesen. „Normalerweise bringen wir in unserem Forschungsgebiet Computer dazu, wie Menschen zu denken. Unser Projekt tut das Gegenteil“, sagt Chaz Firestone, Assistenzprofessor und Ko-Autor der Studie.
Tests mit 1.800 Probanden
Dass autonome Vehikel Objekte falsch interpretieren und beispielsweise für ein Stoppschild halten können, ist bekannt. Um zu testen, ob dies auch beim menschlichen Vorbild so ist, haben die Forscher in Experimenten 1.800 Probanden Aufnahmen gezeigt, die bereits Computer getäuscht hatten. Sie mussten schließlich mit dem begrenzten Vokabular, das Computern zur Verfügung steht, Objekte benennen – und auch teilweise zwischen zwei Antworten wählen, von denen eine die tatsächliche Einschätzung des Computers war und die andere zufällig. Ergebnis: Etwa 75 Prozent der Antworten der Probanden deckten sich mit denen des Computers.
Als nächsten Schritt sollten die Befragten zwischen der ersten und der zweiten Einschätzung des Computers wählen. Etwa 91 Prozent stimmten der ersten Auswahl zu. Selbst wenn es bis zu 48 mögliche Entscheidungen gab oder das Bild statischem Fernsehen ähnelte, neigten die Probanden dazu, ähnlich wie die Künstliche Intelligenz zu entscheiden. Firestone zufolge denken Menschen ähnlich wie Maschinen, wenn sie in deren Situation versetzt werden. Die Fehlerquote sei zwar immer noch ein Problem für Künstliche Intelligenz, allerdings entscheide der Computer nicht völlig anders als ein Mensch. Dadurch sei verdeutlicht, welche großen Fortschritte die Künstliche Intelligenz bereits gemacht habe.
Be the first to comment