Unternehmen wünschen sich beim Thema KI mehr Kontrolle

adesso hat im Rahmen einer repräsentativen Studie KI-Experten in Unternehmen zum Thema „Trustworthy AI“ befragt. Demnach glaubt die Mehrheit, dass KI bei Kundinnen und Kunden einen Vertrauensvorschuss genießt. Gleichzeitig wünschen sich die Teilnehmenden der Studie mehr Kontrollmechanismen. ​ [...]

Aus Sicht der Studienteilnehmenden müssen Unternehmen die Mitarbeitenden stärker in KI-Projekte einbeziehen. Nur so entwickeln sie das nötige Vertrauen in die Technologie. (c) Unsplash
Aus Sicht der Studienteilnehmenden müssen Unternehmen die Mitarbeitenden stärker in KI-Projekte einbeziehen. Nur so entwickeln sie das nötige Vertrauen in die Technologie. (c) Unsplash

Ob es um die Suche nach neuen Werkstoffen, das Finden von betrügerischen Abrechnungen oder die autonome Autofahrt geht: Tausende von Anwendungsfällen quer durch alle Branchen zeigen bereits, welches geballte Potenzial in KI steckt. Einige der Entscheidungen auf Basis intelligenter Algorithmen beeinflussen das Leben von Menschen auf unmittelbare Art. Beispielsweise wenn sich die Empfehlung einer Assistenz-Software auf die Personalauswahl auswirkt. Oder dafür sorgt, dass eine Bank einen Kreditantrag ablehnt. In diesen Fällen müssen die Verantwortlichen Licht ins Dunkel der KI-Entscheidungen bringen. Das reicht von der Herkunft und Charakteristika der Trainingsdaten, die eine KI nutzt, über die Durchschaubarkeit und Verständlichkeit des Algorithmus bis hin zum Einhalten regulatorischer Vorgaben sowie ethischer Grundwerte. Eine Transparenz von KI fordert auch der EU Artificial Intelligence Act von April 2021. Dieser besagt, dass Nutzerinnen und Nutzer ein Recht darauf haben, informiert zu werden, mit welcher Art von KI sie interagieren.

adesso hat 500 Entscheiderinnen und Entscheider, die in Unternehmen mit KI-Anwendungen arbeiten und die Systeme entwickeln, zum Thema Trustworthy AI befragt: Wie wichtig ist eine vertrauenswürdige KI? Wie schätzen sie die Haltung der Nutzer gegenüber KI-Anwendungen ein? Wie sehen sie den Regulierungsbedarf?

Die wichtigsten Erkenntnisse der Studie

Großes Vertrauen in KI: Die Mehrheit hat hohe Erwartungen an die Anwendung. So erhoffen sich 88 Prozent, durch den Einsatz von KI bessere Entscheidungen treffen zu können. Genauso optimistisch sind die Teilnehmenden der Studie bei der Frage, wie Anwendende zu der Technologie stehen. 61 Prozent sind davon überzeugt, dass Verbraucherinnen und Verbraucher KI als grundlegend vertrauenswürdig einstufen.

Regulation erwünscht: Trotzdem finden 80 Prozent der Befragten, KI sollte grundsätzlich nicht ohne menschliche Kontrolle eingesetzt werden. 54 Prozent sind zudem der Meinung, dass das Nutzen von KI-Technologien stärker reguliert werden sollte. Im Banken- und Finanzdienstleisterumfeld unterstützen sogar 75 Prozent diese Forderung. 70 Prozent aller Befragten halten darüber hinaus das Etablieren eines internen KI-Ethikgremiums für sinnvoll. Besonders populär ist die Idee eines eigenen Expertinnen- und Expertenrats im Gesundheitswesen (87 Prozent) und in der öffentlichen Verwaltung (83 Prozent).

KI am Arbeitsplatz: Aus Sicht der Studienteilnehmenden müssen Unternehmen die Mitarbeitenden stärker in KI-Projekte einbeziehen. Nur so entwickeln sie das nötige Vertrauen in die Technologie. 70 Prozent der Befragten sehen eine große Herausforderung darin, die eigene Belegschaft auf die Zusammenarbeit mit KI-Anwendungen vorzubereiten. Besonders kritisch bewerten die Studienteilnehmenden aus der Automotive-Branche die Situation: Hier befürchten 91 Prozent, dass es schwierig wird, die eigenen Teams von der Mensch-Maschine-Kooperation zu überzeugen.

„Unsere Analyse gibt einen erstaunlich klaren Einblick, wie und wohin sich die KI-Regulierung nach Ansicht der befragten Expertinnen und Experten entwickeln soll. Zwar unterstellen die Teilnehmenden den Verbraucherinnen und Verbrauchern – ob nun berechtigt oder nicht – einen großen Vertrauensvorschuss gegenüber KI. Trotzdem sehen sie die Notwendigkeit, strenge Sicherheitsregeln umzusetzen und die Einhaltung ethischer Standards zu kontrollieren“, erklärt Benedikt Bonnmann, Leiter des Geschäftsbereichs Data & Analytics bei adesso. „Das ist auch dringend notwendig. Um der Technologie zu vertrauen, müssen die Menschen genau wissen und verstehen, was KI ist, was sie tut und welche Auswirkungen die gefällten Entscheidungen haben. Unternehmen, die diese Technologie einsetzen, sollten größten Wert darauflegen, dass die eingesetzte KI transparent und vertrauenswürdig arbeitet.“


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*