Wie vertrauenswürdig ist künstliche Intelligenz?

Eine Paneldiskussion an der FH OÖ am Campus Steyr suchte nach Antworten, wie man mit KI umgehen soll. [...]

Das Panel: Dr. Michael Affenzeller, Dr. René Riedl, Prof. Dr. Frank Krueger, Prof. Dr. René Mayrhofer, Klaus Buttinger (Moderation), DI (FH) Edith Mairhofer-Eder, Dr. Heimo Losbichler. (c) Peter Kainrath

Es sind KI-Systeme wie ChatGPT oder Midjourney, die künstliche Intelligenz in die Mitte der Gesellschaft gebracht haben. Das Potenzial scheint enorm, extrem wirksame Effizienzsteigerungen scheinen möglich. Dennoch: Die Frage bleibt, wie wir mit solchen Systemen umgehen sollen und vor allem, ob man ihnen vertrauen kann. Dieser und anderen Fragen wurde von einem hochkarätig besetzten Panel am 5. Juni im neuen Digitalisierungszentrum an der FH OÖ am Campus Steyr nachgegangen.

Die Keynote hielt der amerikanische Wissenschaftler Frank Krueger von der George Mason Universität (Virginia). Er ist einer der weltweit renommiertesten Vertrauensforscher und ging in seinem Vortrag unter anderem darauf ein, welche Hirnareale bei der Entstehung von Vertrauen eine entscheidende Rolle spielen und in welchen Hirnarealen Misstrauen entsteht. Außerdem hätten Vertrauen und Misstrauen auch eine genetische Komponente, die mit bestimmten Hormonen wie etwa Oxytocin, das auch als Bindungshormon bekannt ist, assoziiert werden.

Bei der anschließenden Podiumsdiskussion wurde u.a. die enorme Bedeutung der Privacy für Vertrauensentscheidungen bei KI-Systemen deutlich. Wie solche Systeme mit Daten der User umgehen, hat einen maßgeblichen Einfluss auf Technologieakzeptanz-Entscheidungen. Zudem wurden vertrauensbildende Faktoren diskutiert, die sowohl vor der erstmaligen Nutzung von KI-Systemen und auch bei wiederholter Nutzung wichtig sind, wie auch konkrete Technologien wie ChatGPT oder autonomes Fahren.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*