Fairness von Algorithmen angezweifelt

Intelligente Algorithmen werden von vielen Menschen zunehmend kritischer gesehen, wie Experten des US-Forschungsinstituts Pew Research Center erhoben haben. [...]

Das Misstrauen wächst: Befragte zeigen sich in neuer Pew-Erhebung besorgt, dass Ergebnisse nur Vorurteile spiegeln.
Das Misstrauen wächst: Befragte zeigen sich in neuer Pew-Erhebung besorgt, dass Ergebnisse nur Vorurteile spiegeln. (c) Fotolia

Mit künstlicher Intelligenz ausgestattete Computerprogramme durchziehen immer mehr Lebensbereiche, darunter den Finanz-, Medien– und Rechtssektor. 58 Prozent der Teilnehmer der vom Pew Research Center durchgeführten Umfrage gehen davon aus, dass Algorithmen in gewisser Weise immer die Vorurteile von Menschen widerspiegeln.

Kontext bestimmt Misstrauen

Trotz der Skepsis sind 40 Prozent der Amerikaner grundsätzlich davon überzeugt, dass sich derartige Programme so designen lassen, dass es zu keiner Voreingenommenheit kommt. Auch was Privatsphäre und komplexe Situationen anbelangt, zeigen sich die Befragten skeptisch. Ob Technologien als Unterstützung oder Bedrohung angesehen werden, kommt laut der Studie oftmals auf den Bereich an, in dem diese eingesetzt werden.

Bei der Studie haben sich die Experten auf vier unterschiedliche Szenarien fokussiert: die Risikobewertung Krimineller, wieder straffällig zu werden; das automatisierte Screening von Lebensläufen; die Videoanalyse von Bewerbern sowie die Einschätzung der persönlichen Finanzen. 68 Prozent empfinden eine Einstufung der eigenen Bonität als inakzeptabel. 67 Prozent betrachten die computergestützte Analyse von Bewerbungen als inadäquat.

Nuancen bleiben unbeachtet

Die Risikoeinschätzung Krimineller wird von 57 Prozent abgelehnt und 56 Prozent sprechen sich gegen eine computerbasierte Analyse von Lebensläufen aus. Insbesondere bei der Kontrolle des Lebenslaufes erachten 36 Prozent die Entfernung eines menschlichen Elements als problematisch. Insgesamt zeigt die Erhebung, dass Menschen als komplexe Wesen gesehen werden. Für eine Filterung der verschiedenen Nuancen räumen die Befragten den Algorithmen zu wenig Potenzial ein.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*