Internet Summit Austria 2023: Was vom Menschen bleibt, wenn Intelligenz künstlich wird

Bei der Jahrestagung der ISPA diskutierten Expert:innen aus Wissenschaft, Wirtschaft und Zivilgesellschaft die Künstliche Intelligenz und den Digitalen Humanismus. [...]

(Foto: ISPA/APA-Fotoservice/Hautzinger)

Technischer Fortschritt verändert unser Leben und unsere Gesellschaft in immer höherem Tempo, und besonders die Künstliche Intelligenz hat da noch großes Potenzial: Das war beim Internet Summit Austria 2023, der gestern, Donnerstag, stattfand, unbestritten.

Ausgewiesene Expert:innen aus Wissenschaft, Wirtschaft und Zivilgesellschaft diskutierten mit über 130 Besucher:innen die Frage, wie sich die KI auf die Menschen und unseren Alltag auswirken wird.

Stefan Ebenberger, Generalsekretär der ISPA, die den ISA 2023 organisiert hatte, sagt: „Künstliche Intelligenz hat das Potenzial, völlig neue Berufe zu schaffen, Arbeitserleichterungen ebenso zu bringen wie Produktivitätsgewinne sowie ungeahnte Fortschritte in Wissenschaft und Forschung. Dafür sollten Politik und Regulierung die Chancen technischer Entwicklungen erkennen, Investitionen anregen und auch eine gute Portion Zuversicht mitbringen.”

Gleichzeitig gilt es, die Herausforderungen im Auge zu haben, sagt Ebenberger: „Wenn die KI immer komplexere Aufgaben übernimmt – dann ist es unsere Aufgabe, dafür zu sorgen, dass der technische Fortschritt auch zu menschlichem Fortschritt führt. Dabei muss das Prinzip des Digitalen Humanismus im Zentrum stehen.”

Europa muss mehr in KI und ihre Grundlagen investieren, um nicht die technologische Souveränität zu verlieren.

Die eingeladenen Expert:innen gaben einen Ausblick in die Zukunft. Carina Zehetmaier (KI-Expertin, Präsidentin von Women in Artifical Intelligence Austria und Menschenrechtsjuristin) erklärte in ihrer Keynote: „Neben der Vorreiterrolle im Bereich KI-Regulierung, muss sichergestellt werden, dass Europas technologische Souveränität gewahrt wird. Dies muss durch gezielte Investitionen in Forschung, Entwicklung, Bildung und Open-Source-Technologie geschehen.“

Darüber hinaus führte sie aus, dass Künstliche Intelligenz immer ein Spiegel unserer Gesellschaft ist und daher auch unsere Vorurteile und blinden Flecken verschleiern wie auch verstärken könne. Sie könne aber auch dabei helfen, genau diese blinden Flecken zu erhellen und uns dabei unterstützen, sie aktiv anzugehen.

Auch die Anwendungen und Entwicklungslinien der KI wurden bei der Tagung thematisiert. Robert Trappl, Leiter des Österreichischen Forschungsinstituts für Artificial Intelligence (OFAI), sprach unter anderem über das Tempo und die Ressourcen, die KI-Entwicklung braucht und verwies auf die Notwendigkeit von Investitionen.

Er bemerkte etwas ironisch, über die Neigung zu regulieren, ohne die Technik zu haben, mit Milliarden könnte man ChatGPT bauen, mit Millionen AlphaGo, und mit hunderttausend Euro neue Regeln machen, was AI-Systeme leisten dürfen.

Abschließend zog ISPA-Präsident Harald Kapper Bilanz: Wir müssen aufpassen, dass die Künstliche Intelligenz nicht in eine Künstliche Dummheit kippt. Deswegen war es Zeit, das Thema grundsätzlich zu betrachten: Was bedeutet sie für unser Menschenbild? Werden Vorurteile in KI-Systemen verankert oder gar verstärkt? Wenn KIs Gesellschaftsbilder der Vergangenheit reproduzieren und vielleicht auch noch verstärken, dann stehen wir vor unerwarteten Herausforderungen. Es ist notwendig für ungewollte Auswirkungen Lösungen zu finden, damit KIs ihren Dienst tun können, ohne zu schaden.”


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*