Wie vertrauenswürdig ist künstliche Intelligenz?

Eine Paneldiskussion an der FH OÖ am Campus Steyr suchte nach Antworten, wie man mit KI umgehen soll. [...]

Das Panel: Dr. Michael Affenzeller, Dr. René Riedl, Prof. Dr. Frank Krueger, Prof. Dr. René Mayrhofer, Klaus Buttinger (Moderation), DI (FH) Edith Mairhofer-Eder, Dr. Heimo Losbichler. (c) Peter Kainrath

Es sind KI-Systeme wie ChatGPT oder Midjourney, die künstliche Intelligenz in die Mitte der Gesellschaft gebracht haben. Das Potenzial scheint enorm, extrem wirksame Effizienzsteigerungen scheinen möglich. Dennoch: Die Frage bleibt, wie wir mit solchen Systemen umgehen sollen und vor allem, ob man ihnen vertrauen kann. Dieser und anderen Fragen wurde von einem hochkarätig besetzten Panel am 5. Juni im neuen Digitalisierungszentrum an der FH OÖ am Campus Steyr nachgegangen.

Die Keynote hielt der amerikanische Wissenschaftler Frank Krueger von der George Mason Universität (Virginia). Er ist einer der weltweit renommiertesten Vertrauensforscher und ging in seinem Vortrag unter anderem darauf ein, welche Hirnareale bei der Entstehung von Vertrauen eine entscheidende Rolle spielen und in welchen Hirnarealen Misstrauen entsteht. Außerdem hätten Vertrauen und Misstrauen auch eine genetische Komponente, die mit bestimmten Hormonen wie etwa Oxytocin, das auch als Bindungshormon bekannt ist, assoziiert werden.

Bei der anschließenden Podiumsdiskussion wurde u.a. die enorme Bedeutung der Privacy für Vertrauensentscheidungen bei KI-Systemen deutlich. Wie solche Systeme mit Daten der User umgehen, hat einen maßgeblichen Einfluss auf Technologieakzeptanz-Entscheidungen. Zudem wurden vertrauensbildende Faktoren diskutiert, die sowohl vor der erstmaligen Nutzung von KI-Systemen und auch bei wiederholter Nutzung wichtig sind, wie auch konkrete Technologien wie ChatGPT oder autonomes Fahren.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*