KI-System findet Hass in sozialen Medien

Wissenschaftliche Analyse von Millionen Kommentaren, um "Help speech" hervorzuheben. [...]

"Auch wenn das Web mittlerweile mit negativen Inhalten vollgestopft wird, können wir trotzdem immer noch positive Kommentare finden." (c) ra2studion - Fotolia
"Auch wenn das Web mittlerweile mit negativen Inhalten vollgestopft wird, können wir trotzdem immer noch positive Kommentare finden." (c) ra2studion - Fotolia

Experten der Carnegie Mellon University (CMU) bekämpfen Hass-Postings im Social Web nun technisch. Eine Künstliche Intelligenz (KI) durchforstet Millionen von Meldungen in Sekunden und unterscheidet dabei „Hate speech“ von positiven Kommentaren („Help speech“). Letztere können dann von menschlichen Moderatoren aufgegriffen und in den Social-Feeds der Nutzer hervorgehoben werden, um das Internet generell „sicherer und umgänglicher“ zu gestalten, so die Forscher.

„Internet zu besserem Ort machen“

„Auch wenn das Web mittlerweile mit negativen Inhalten vollgestopft wird, können wir trotzdem immer noch positive Kommentare finden“, erklärt Ashiqur KhudaBukhsh, Post-Doc am Language Technologies Institute (LTI) der CMU. Das Problem sei allerdings, dass es dem Einzelnen in Anbetracht der rapiden Zunahme an Hass-Postings meist nur mehr schwer möglich sei, überhaupt auf diese positiven Meldungen zu stoßen. „Indem wir genau diese Inhalte finden und hervorheben, können wir das Internet genauso zu einem besseren Ort machen, wie wenn wir schädlichen Content aufspüren und ausmerzen und ihre Verursacher aussperren“, ist der Experte überzeugt.

Natürlich sei es für Menschen völlig unmöglich, sich durch Millionen von Postings zu arbeiten, um die Spreu vom Weizen zu trennen. Für diese Aufgabe brauche es eine ausgereifte KI, wie LTI-Leiter Jaime Carbonell betont: „Die Analyse derart großer Datenmengen in so kurzer Zeit ist nur möglich aufgrund der jüngsten Fortschritte im Bereich des Maschinellen Lernens. Nur so können Maschinen wirklich verstehen, was ein Autor mit seinem Kommentar eigentlich sagen will.“

Test zur Flüchtlingskrise der Rohingya

Um ihre Methode zu testen, ließen die CMU-Wissenschaftler ihre KI-Software eine umfassende Analyse von insgesamt knapp einer Viertel Million YouTube-Kommentaren durchführen, die sich mit der Flüchtlingskrise der Rohingya in Myanmar auseinandersetzen. „Diese Minderheit ist der Hate speech im Netz größtenteils völlig hilflos ausgeliefert. Die meisten Mitgleiter können kein Englisch, verfügen über keinen Internetzugang oder sind einfach zu beschäftigt damit, am Leben zu bleiben, um selbst Inhalte online zu stellen“, stellt KhudaBukhsh klar.

Das Ergebnis: Als normaler Nutzer stößt man auf Googles Videoportal im Schnitt lediglich auf rund zehn Prozent von Meldungen, die sich positiv zum Thema äußern. Sobald man allerdings die KI-unterstützte Methode anwendet, um positive Inhalte zu finden, und diese anschließend von Moderatoren stärker in den News-Feeds hervorheben zu lassen, steigt die Zahl der positiven Kommentare sprungartig auf 88 Prozent an. „Das zeigt, wie viel Potenzial dieser Ansatz hat“, meint KhudaBukhsh.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*