Software soll „gute“ von „schlechten“ Bürgern unterscheiden

Die amerikanische Einwanderungsbehörde will ein automatisiertes Verfahren erstellen, das durch persönliche Daten und digitale Chroniken feststellt, wer positiv und negativ zur Gesellschaft beiträgt. [...]

Im Bestreben die Einwanderung in die USA zu verbessern und nur möglichst jene Menschen zuzulassen, die einen positiven Beitrag zur Gesellschaft leisten, will die US-Einwanderungs-behörde Immigrations and Customs Enforcement“ (ICE) künftig einen gemeinsam mit Softwarefirmen erstellten Algorithmus einsetzt, der erkennen soll, wer möglichst positiv, aber auch wer negativ zur Gesellschaft beiträgt. Auf diese Weise soll die Immigration erleichtert und beschleunigt werden. Damit haben die Behörden massiv Kritik von Bürgerrechtsorganisationen geerdet, die diesen Plan sehr kritisch bewerten.
Hexenverbrennung 2.0
„Wenn du einen Algorithmus aufbaust, der Hexen suchen soll, dann endet das sozusagen mit den Hexenprozessen von Salem. Man glaubt nämlich nur, dass man Hexen findet. Aber eigentlich findet man auch bloß normale Menschen, die Katzen und Besen besitzen“, gibt Rachel Levinson-Waldman vom Brennan Center for Justice  zu bedenken. Es sei zudem beinahe unmöglich festzulegen, was genau „positive Kontributionen“ seien.
„Das US-amerikanische Gesetz hat dafür keine Definition. Das bedeutet, dass wahrscheinlich diejenigen, die das Programm entwickeln, wahrscheinlich in Zusammenarbeit mit der ICE dies festlegen werden“, unterstreicht Levinson Waldman. In einem Schreiben an das Department of Homeland Security haben bereits über 100 Branchenexperten klargemacht, dass sie einen Algorithmus dieses Ausmaßes äußerst gefährlich finden würden.
Viel zu viele Verdächtige
„Es gibt eine Vielzahl von Literatur, die bestens demonstriert, dass sogar die besten automatisierten Entscheidungsmodelle eine unakzeptable Anzahl von Fehlern erzeugen, wenn sie Geschehen vorhersagen sollen. Im Vergleich mit der US-Population und den Immigrationsraten ist die Zahl der Verbrechen relativ niedrig, vor allem Terrorangriffe sind selten. Das Ergebnis wäre, dass sogar das akkurateste Modell trotzdem noch eine sehr hohe Zahl von falschen, positiven Ergebnissen liefern würde“, so der Brief. Ob der Algorithmus nach der breiten Kritik noch im gleichen Ausmaß umgesetzt werden soll, ist ungewiss.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*