Podiumsdiskussion über KI, Desinformation und Journalismus

Generative KI stellt den Journalismus vor neuen Herausforderungen im Umgang mit Desinformation und der Sicherung von ethischen Grundprinzipien. Auf einer Podiumsdiskussion der Österreichischen UNESCO-Kommission und der FHWien der WKW diskutierten Experten und Expertinnen diese Problematik. [...]

Die Teilnehmer der Podiumsdiskussion. (c) Markus Hechenberger
Die Teilnehmer der Podiumsdiskussion. (c) Markus Hechenberger

Eröffnet wurde die Veranstaltung durch eine Key Note von Eva Wackenreuther, Faktencheckerin bei der Nachrichtenagentur AFP. Sie wies darauf hin, dass die Erstellung KI-generierter Fotos und Videos zumindest schon ausgesprochen einfach ist, und warnt, dass Desinformationskampagnen durch die Verwendung derartiger Inhalte im „Superwahljahr“ 2024 mit weltweit 3,5 Milliarden Wählern und Wählerinnen deutlich zunehmen dürften. KI sei in diesem Zusammenhang ein potenzieller Brandbeschleuniger und verzerre das politische Spielfeld in Richtung der lautesten und emotionalsten Ideen. Infolge steige die Informationsunsicherheit in der Bevölkerung, so etwa das generelle Misstrauen gegenüber Inhalten, unabhängig von der Seriosität der Quelle. Mitunter werde auch gezielt versucht, Journalistinnen und Journalisten mit Hilfe von Mis- und Desinformation zu diskreditieren, so Ashwien Sankholkar, Investigativjournalist bei der Rechercheplattform DOSSIER.

Nach der Keynote folgte die Podiumsdiskussion. Florian Schmidt, Leiter des APA-Faktencheck-Teams, ist überzeugt davon, dass es nur noch wenige Monate dauern werde, bis KI-generierte Bilder und Videos noch als solche erkennbar seien. In wenigen Jahren, so Schmidt, werde die Mehrheit der Inhalte im Internet KI-generiert sein. Skeptischer zeigt sich Sabine Köszegi, Professorin an der TU Wien und Vorsitzende des Fachbeirats Ethik der Künstlichen Intelligenz an der Österreichischen UNESCO-Kommission. Sie wies auf die nach wie vor bestehenden Schwachstellen von generativer KI hin und rechnet in absehbarer Zeit nicht mit einer Perfektionierung entsprechender Tools.

KI – ein zweischneidiges Schwert

Der Einsatz Künstlicher Intelligenz geht freilich nicht nur mit Herausforderungen einher, sondern birgt auch enorme Chancen für das journalistische Arbeiten, zum Beispiel erleichtert KI das Fact-Checking, die Überprüfung von Inhalten auf ihre Echtheit. Hier ist bereits heute festzustellen, wie die KI journalistische Arbeitsweisen verändert. Einerseits gebe das, so die Diskutanten, Hoffnung, dass im redaktionellen Alltag bestimmte (unliebsame) Aufgaben an KI-Tools delegiert werden könnten und so Ressourcen für journalistische Kerntätigkeiten (z.B. ausführliche Recherche) frei würden. Wie auch in anderen professionellen Feldern sei aber zu befürchten, dass tendenziell Arbeitsplätze verloren gingen. Aktuellen Schätzungen zufolge sei zum Beispiel für die USA davon auszugehen, dass bis 2030 bis zu 30 Prozent der derzeit geleisteten Arbeitsstunden automatisiert werden könnten, so Köszegi. Einig waren sich alle darin, dass Medienunternehmen, aber auch die gesamte Gesellschaft Verantwortung dafür übernehmen müssen, welche Aufgaben in Zukunft der KI übergeben werden und was weiterhin von Menschen erledigt werden muss.

Einig waren sich die Panel-Teilnehmer auch darin, dass Künstliche Intelligenz das journalistische Arbeitsfeld inklusive redaktioneller Arbeitsprozesse, Selbstverständnis und Informationsumgebung verändere und es deshalb in Hinblick auf KI als Berichtsgegenstand neue Kompetenzen brauche, wie die Journalismusforscherin Wiebke Loosen zusammenfasste. Genauso wesentlich wie gesetzliche Regelungen (und Sanktionsmöglichkeiten) seien daher die professionellen Standards und die Weiterentwicklung berufsethischer Normen.

Weitere Diskusionspunkte betrafen Transparenzfragen, Auszeichnungspflichten und Verantwortlichkeit. Diese liege am Ende immer noch beim Menschen. Künstliche Intelligenz sei nämlich kein „moralischer Agent“ (moral agent), so Köszegi, sondern vielmehr ein Spiegelkabinett unserer gesellschaftlichen Vorurteile. Künstliche Intelligenz reproduziere dabei nicht nur Vorurteile (Biases) und Diskriminierung, sondern verstärke diese deutlich. Regulierung von staatlicher Seite brauche es auch angesichts der ungebrochenen Marktmacht der großen Technologieunternehmen – und ebenso ein Verständnis von Daten und Informationszugang als kritische Infrastruktur.

UNESCO will ethische Prinzipien für KI

Ausgangspunkt für die Veranstaltung war die UNESCO-Empfehlung zur Ethik der Künstlichen Intelligenz. Im November 2021 von 193 Staaten verabschiedet, beinhaltet die Empfehlungen klar definierte Prinzipien für die ethische Entwicklung und den Einsatz von KI in elf Anwendungsfeldern, darunter solche mit engem Journalismus- und Medienbezug. Was die Empfehlung darüber hinaus auszeichnet, ist ihr starker Bezug auf die Menschenrechte, Nachhaltige Entwicklung sowie Umweltaspekte. Seit Juli 2023 unterstützt ein Experten- und Expertinnenbeirat an der Österreichischen UNESCO-Kommission die Umsetzung der Empfehlung auf nationaler Ebene.

Weitere Information über die Überlegungen der UNESCO zu Ethik und Künstliche Intelligenz finden Interessierte unter www.unesco.at/wissenschaft/wissenschafts-und-bioethik/ethik-kuenstliche-intelligenz.


Mehr Artikel

img-4
News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*