Verantwortungsvoller Umgang mit Algorithmen

Algorithmen sind allgegenwärtig im digitalen Alltag. Mit dem Online-Tool VᴇʀA (kurz für „Verantwortung“ und „Algorithmen“) und einem ergänzenden Leitfaden leisten Lukas Daniel Klausner von der FH St. Pölten und Angelika Adensamer (VICESSE, Vienna Centre for Societal Security) einen wichtigen Beitrag, um Verantwortlichkeit und Rechenschaft im Umgang mit Algorithmen zu fördern. Das Projekt wird von der Arbeiterkammer Wien im Rahmen des Digitalisierungsfonds Arbeit 4.0 gefördert. [...]

Auf Basis der Rückmeldungen aus der praktischen Anwendung in den Unternehmen sollen Tool und Leitfaden weiterentwickelt werden (c) Alexander Gotter/Hanna Prykhodzka

Beim Einsatz von Algorithmen stehen dem vielseitigen Potenzial auch Risiken und große Verantwortung bei der Anwendung gegenüber: Algorithmen vereinfachen und automatisieren bereits zahlreiche Abläufe in fast allen Lebensbereichen. Gleichzeitig entstehen neue Probleme bei der Anwendung: Sei es im Bereich automatischer Gesichtserkennung, Überwachung im digitalen Raum oder bei der Einführung des AMS-Algorithmus, der die Chancen von Arbeitssuchenden bewerten soll. Das Online-Tool VᴇʀA und ein begleitender Leitfaden bieten nun eine Basis für die verantwortungsbewusste Verwendung von Algorithmen.

„Mit Hilfe unserer Tools kann der gesamte Prozess rund um die Nutzung und Einführung von Algorithmen in Unternehmen und Institutionen verantwortungsbewusster umgesetzt bzw. überhaupt erst die dafür notwendigen Voraussetzungen geschaffen werden“, betont Lukas Daniel Klausner, Researcher am Institut für IT-Sicherheitsforschung der FH St. Pölten. „Unser Leitfaden hilft insbesondere dabei, die Verantwortlichkeiten in der Organisation klar zu definieren und zu überprüfen, ob die zugewiesenen Aufgabenbereiche auch entsprechend mit Verantwortlichkeiten und Rechenschaftspflichten korrespondieren“, so Klausner, der sich im Projekt insbesondere um die (sozio-)technischen Aspekte gekümmert hat.

Probleme frühzeitig erkennen

Angelika Adensamer, Juristin und Expertin im Bereich Datenschutz und Grundrechte, weist insbesondere auf die weitreichenden rechtlichen Aspekte bei der Verwendung von Algorithmen hin. „Wir laden alle ein, die mit Algorithmen arbeiten wollen oder müssen oder sich überlegen, diese in der Zukunft zu nutzen, unseren Leitfaden und unser interaktives Tool zu verwenden, um mögliche Probleme – rechtliche und anderweitige – frühzeitig zu erkennen.“

Für die Arbeiterkammer Wien, die das Projekt im Rahmen des Digitalisierungsfonds Arbeit 4.0 ermöglichte, ist das Projekt ein wichtiger Baustein in der Debatte zur Zukunft der Arbeit: „Der Einsatz von Algorithmen und Künstlicher Intelligenz in der Arbeitswelt findet längst statt. Wir brauchen begleitend Orientierung zu Fragen der Verantwortung im Zusammenspiel von automatisierten Systemen und Menschen“, so Renate Anderl, Präsidentin der Arbeiterkammer Wien.

Begleitende Publikation

Auf Basis der Rückmeldungen aus der praktischen Anwendung in den Unternehmen sollen Tool und Leitfaden weiterentwickelt werden. Zusätzlich ist eine begleitende wissenschaftliche Publikation zu Leitfaden und Tool in Vorbereitung. In Kürze erscheint auch bereits eine zweite Publikation im Journal „Frontiers in Artificial Intelligence“ mit dem Titel „Part Man, Part Machine, All Cop”: Automation in Policing“, die sich schwerpunktmäßig mit Fragen der Automatisierung im Bereich Polizei und Justiz befasst.

Weitere Informationen zu VᴇʀA sowie den Leitfaden finden Sie hier.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*