Menschen machen gleiche Fehler wie Maschinen

Selbstfahrende Autos treffen bei Objekterkennung wie Computer oft ähnliche Entscheidungen. [...]

Autonomes Auto: Menschen denken ähnlich (c) youtube.com, JHU

Auch Menschen missinterpretieren Objekte wie manche Computer, die in selbstfahrenden Autos zum Einsatz kommen. Das haben Forscher der Johns Hopkins University hnachgewiesen. „Normalerweise bringen wir in unserem Forschungsgebiet Computer dazu, wie Menschen zu denken. Unser Projekt tut das Gegenteil“, sagt Chaz Firestone, Assistenzprofessor und Ko-Autor der Studie.

Tests mit 1.800 Probanden

Dass autonome Vehikel Objekte falsch interpretieren und beispielsweise für ein Stoppschild halten können, ist bekannt. Um zu testen, ob dies auch beim menschlichen Vorbild so ist, haben die Forscher in Experimenten 1.800 Probanden Aufnahmen gezeigt, die bereits Computer getäuscht hatten. Sie mussten schließlich mit dem begrenzten Vokabular, das Computern zur Verfügung steht, Objekte benennen – und auch teilweise zwischen zwei Antworten wählen, von denen eine die tatsächliche Einschätzung des Computers war und die andere zufällig. Ergebnis: Etwa 75 Prozent der Antworten der Probanden deckten sich mit denen des Computers.

Als nächsten Schritt sollten die Befragten zwischen der ersten und der zweiten Einschätzung des Computers wählen. Etwa 91 Prozent stimmten der ersten Auswahl zu. Selbst wenn es bis zu 48 mögliche Entscheidungen gab oder das Bild statischem Fernsehen ähnelte, neigten die Probanden dazu, ähnlich wie die Künstliche Intelligenz zu entscheiden. Firestone zufolge denken Menschen ähnlich wie Maschinen, wenn sie in deren Situation versetzt werden. Die Fehlerquote sei zwar immer noch ein Problem für Künstliche Intelligenz, allerdings entscheide der Computer nicht völlig anders als ein Mensch. Dadurch sei verdeutlicht, welche großen Fortschritte die Künstliche Intelligenz bereits gemacht habe.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*