Racial Profiling: IBM stoppt Gesichtserkennung

Angesichts der US-weiten Proteste gegen Polizeibrutalität im Zuge des gewaltsamen Todes von George Floyd will IBM ab sofort keine Gesichterkennungs-Software mehr anbieten. Dem Unternehmen zufolge besteht bei dieser Technologie die Gefahr der Massenüberwachung und des Racial-Profilings. [...]

IBM sieht reale Gefahr des Machtmissbrauchs und bietet Technologie nicht mehr an.
IBM sieht reale Gefahr des Machtmissbrauchs und bietet Technologie nicht mehr an. (c) teguhjatipras / Pixabay

IBM-CEO Arvind Krishna hat die Entscheidung gegen Gesichtserkennung in einem Brief an den US-Kongress bekannt gegeben. Krishna zufolge besteht hier das Potenzial für Verstöße gegen die Prinzipien von Vertrauen und Transparenz. IBM stelle sich gegen den Missbrauch von Technologie zur Unterdrückung der Freiheit.

„Gesichtserkennung kann in den richtigen Händen positiv, in den falschen Händen aber sehr gefährlich sein. Es gibt leider keine Garantie dafür, dass diese Technologie nicht missbraucht wird. Deswegen ist die Entscheidung von IBM zu begrüßen. Vor allem von einem riesigen Konzern, der mit Gesichtserkennung viel Profit machen könnte, ist das ein starkes Statement, um die Diskussion voranzutreiben“, kommentiert Digitalisierungsexperte Frank Eilers diesen Schritt von IBM.

„Politik bei Digitalisierung naiv“

Laut Krishna ist ein nationaler Dialog zur Nutzung von Gesichtserkennung wichtig, besonders durch Gesetzesvertreter. Die immer wieder auftretenden Fälle von rassistisch motivierter Polizeibrutalität haben gezeigt, dass Autoritäten mehr Verantwortung für Verfehlungen tragen müssen. Künstliche Intelligenz sei für die Polizei ein mächtiges Werkzeug. Jedoch müssen sowohl die User als auch die Hersteller damit achtsam umgehen und Befangenheit vermeiden.

Nach Ansicht der Digitalisierungsexpertin Anitra Eggler zeigt sich durch diese Maßnahme seitens IBM, „wie viel Gefahr für Machtmissbrauch in dieser Technologie steckt und wie naiv die Politik Digitalisierung behandelt. Hier wäre viel mehr Regulierung nötig. Eine demokratische Gesellschaft sollte nicht gezwungen sein, diese Technologie komplett zu verbannen.“


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*