Unternehmen wünschen sich beim Thema KI mehr Kontrolle

adesso hat im Rahmen einer repräsentativen Studie KI-Experten in Unternehmen zum Thema „Trustworthy AI“ befragt. Demnach glaubt die Mehrheit, dass KI bei Kundinnen und Kunden einen Vertrauensvorschuss genießt. Gleichzeitig wünschen sich die Teilnehmenden der Studie mehr Kontrollmechanismen. ​ [...]

Aus Sicht der Studienteilnehmenden müssen Unternehmen die Mitarbeitenden stärker in KI-Projekte einbeziehen. Nur so entwickeln sie das nötige Vertrauen in die Technologie. (c) Unsplash
Aus Sicht der Studienteilnehmenden müssen Unternehmen die Mitarbeitenden stärker in KI-Projekte einbeziehen. Nur so entwickeln sie das nötige Vertrauen in die Technologie. (c) Unsplash

Ob es um die Suche nach neuen Werkstoffen, das Finden von betrügerischen Abrechnungen oder die autonome Autofahrt geht: Tausende von Anwendungsfällen quer durch alle Branchen zeigen bereits, welches geballte Potenzial in KI steckt. Einige der Entscheidungen auf Basis intelligenter Algorithmen beeinflussen das Leben von Menschen auf unmittelbare Art. Beispielsweise wenn sich die Empfehlung einer Assistenz-Software auf die Personalauswahl auswirkt. Oder dafür sorgt, dass eine Bank einen Kreditantrag ablehnt. In diesen Fällen müssen die Verantwortlichen Licht ins Dunkel der KI-Entscheidungen bringen. Das reicht von der Herkunft und Charakteristika der Trainingsdaten, die eine KI nutzt, über die Durchschaubarkeit und Verständlichkeit des Algorithmus bis hin zum Einhalten regulatorischer Vorgaben sowie ethischer Grundwerte. Eine Transparenz von KI fordert auch der EU Artificial Intelligence Act von April 2021. Dieser besagt, dass Nutzerinnen und Nutzer ein Recht darauf haben, informiert zu werden, mit welcher Art von KI sie interagieren.

adesso hat 500 Entscheiderinnen und Entscheider, die in Unternehmen mit KI-Anwendungen arbeiten und die Systeme entwickeln, zum Thema Trustworthy AI befragt: Wie wichtig ist eine vertrauenswürdige KI? Wie schätzen sie die Haltung der Nutzer gegenüber KI-Anwendungen ein? Wie sehen sie den Regulierungsbedarf?

Die wichtigsten Erkenntnisse der Studie

Großes Vertrauen in KI: Die Mehrheit hat hohe Erwartungen an die Anwendung. So erhoffen sich 88 Prozent, durch den Einsatz von KI bessere Entscheidungen treffen zu können. Genauso optimistisch sind die Teilnehmenden der Studie bei der Frage, wie Anwendende zu der Technologie stehen. 61 Prozent sind davon überzeugt, dass Verbraucherinnen und Verbraucher KI als grundlegend vertrauenswürdig einstufen.

Regulation erwünscht: Trotzdem finden 80 Prozent der Befragten, KI sollte grundsätzlich nicht ohne menschliche Kontrolle eingesetzt werden. 54 Prozent sind zudem der Meinung, dass das Nutzen von KI-Technologien stärker reguliert werden sollte. Im Banken- und Finanzdienstleisterumfeld unterstützen sogar 75 Prozent diese Forderung. 70 Prozent aller Befragten halten darüber hinaus das Etablieren eines internen KI-Ethikgremiums für sinnvoll. Besonders populär ist die Idee eines eigenen Expertinnen- und Expertenrats im Gesundheitswesen (87 Prozent) und in der öffentlichen Verwaltung (83 Prozent).

KI am Arbeitsplatz: Aus Sicht der Studienteilnehmenden müssen Unternehmen die Mitarbeitenden stärker in KI-Projekte einbeziehen. Nur so entwickeln sie das nötige Vertrauen in die Technologie. 70 Prozent der Befragten sehen eine große Herausforderung darin, die eigene Belegschaft auf die Zusammenarbeit mit KI-Anwendungen vorzubereiten. Besonders kritisch bewerten die Studienteilnehmenden aus der Automotive-Branche die Situation: Hier befürchten 91 Prozent, dass es schwierig wird, die eigenen Teams von der Mensch-Maschine-Kooperation zu überzeugen.

„Unsere Analyse gibt einen erstaunlich klaren Einblick, wie und wohin sich die KI-Regulierung nach Ansicht der befragten Expertinnen und Experten entwickeln soll. Zwar unterstellen die Teilnehmenden den Verbraucherinnen und Verbrauchern – ob nun berechtigt oder nicht – einen großen Vertrauensvorschuss gegenüber KI. Trotzdem sehen sie die Notwendigkeit, strenge Sicherheitsregeln umzusetzen und die Einhaltung ethischer Standards zu kontrollieren“, erklärt Benedikt Bonnmann, Leiter des Geschäftsbereichs Data & Analytics bei adesso. „Das ist auch dringend notwendig. Um der Technologie zu vertrauen, müssen die Menschen genau wissen und verstehen, was KI ist, was sie tut und welche Auswirkungen die gefällten Entscheidungen haben. Unternehmen, die diese Technologie einsetzen, sollten größten Wert darauflegen, dass die eingesetzte KI transparent und vertrauenswürdig arbeitet.“


Mehr Artikel

News

Jahrelanges Katz-und-Maus-Spiel zwischen Hackern und Verteidigern

Sophos hat den umfangreichen Forschungsbericht „Pacific Rim“ veröffentlicht, der detailliert ein jahrelanges Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit mehreren staatlich unterstützten Cybercrime-Gruppierungen aus China beschreibt. Im Lauf der Auseinandersetzung entdeckte Sophos ein riesiges, gegnerisches Cybercrime-Ökosystem. […]

News

Salesforce kündigt autonome KI-Agenten an

Agentforce soll es Unternehmen ermöglichen, autonome KI-Agenten für zahlreiche Unternehmensfunktionen zu entwickeln und einzusetzen. So bearbeitet Agentforce beispielsweise selbstständig Kundenanliegen, qualifiziert Vertriebsleads und optimiert Marketingkampagnen. […]

News

Startschuss für neues Studium „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln

Mit einem fortschrittlichen Konzept und praxisnaher Ausrichtung ist der neue Bachelor-Studiengang „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln der Fachhochschule Wiener Neustadt erfolgreich gestartet. Unter der Leitung von Dominik Hölbling erwartet die Studierenden eine Ausbildung mit Schwerpunkt auf moderne Softwaretechnologien und innovative Digitalisierungslösungen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*