KI-System findet Hass in sozialen Medien

Wissenschaftliche Analyse von Millionen Kommentaren, um "Help speech" hervorzuheben. [...]

"Auch wenn das Web mittlerweile mit negativen Inhalten vollgestopft wird, können wir trotzdem immer noch positive Kommentare finden." (c) ra2studion - Fotolia
"Auch wenn das Web mittlerweile mit negativen Inhalten vollgestopft wird, können wir trotzdem immer noch positive Kommentare finden." (c) ra2studion - Fotolia

Experten der Carnegie Mellon University (CMU) bekämpfen Hass-Postings im Social Web nun technisch. Eine Künstliche Intelligenz (KI) durchforstet Millionen von Meldungen in Sekunden und unterscheidet dabei „Hate speech“ von positiven Kommentaren („Help speech“). Letztere können dann von menschlichen Moderatoren aufgegriffen und in den Social-Feeds der Nutzer hervorgehoben werden, um das Internet generell „sicherer und umgänglicher“ zu gestalten, so die Forscher.

„Internet zu besserem Ort machen“

„Auch wenn das Web mittlerweile mit negativen Inhalten vollgestopft wird, können wir trotzdem immer noch positive Kommentare finden“, erklärt Ashiqur KhudaBukhsh, Post-Doc am Language Technologies Institute (LTI) der CMU. Das Problem sei allerdings, dass es dem Einzelnen in Anbetracht der rapiden Zunahme an Hass-Postings meist nur mehr schwer möglich sei, überhaupt auf diese positiven Meldungen zu stoßen. „Indem wir genau diese Inhalte finden und hervorheben, können wir das Internet genauso zu einem besseren Ort machen, wie wenn wir schädlichen Content aufspüren und ausmerzen und ihre Verursacher aussperren“, ist der Experte überzeugt.

Natürlich sei es für Menschen völlig unmöglich, sich durch Millionen von Postings zu arbeiten, um die Spreu vom Weizen zu trennen. Für diese Aufgabe brauche es eine ausgereifte KI, wie LTI-Leiter Jaime Carbonell betont: „Die Analyse derart großer Datenmengen in so kurzer Zeit ist nur möglich aufgrund der jüngsten Fortschritte im Bereich des Maschinellen Lernens. Nur so können Maschinen wirklich verstehen, was ein Autor mit seinem Kommentar eigentlich sagen will.“

Test zur Flüchtlingskrise der Rohingya

Um ihre Methode zu testen, ließen die CMU-Wissenschaftler ihre KI-Software eine umfassende Analyse von insgesamt knapp einer Viertel Million YouTube-Kommentaren durchführen, die sich mit der Flüchtlingskrise der Rohingya in Myanmar auseinandersetzen. „Diese Minderheit ist der Hate speech im Netz größtenteils völlig hilflos ausgeliefert. Die meisten Mitgleiter können kein Englisch, verfügen über keinen Internetzugang oder sind einfach zu beschäftigt damit, am Leben zu bleiben, um selbst Inhalte online zu stellen“, stellt KhudaBukhsh klar.

Das Ergebnis: Als normaler Nutzer stößt man auf Googles Videoportal im Schnitt lediglich auf rund zehn Prozent von Meldungen, die sich positiv zum Thema äußern. Sobald man allerdings die KI-unterstützte Methode anwendet, um positive Inhalte zu finden, und diese anschließend von Moderatoren stärker in den News-Feeds hervorheben zu lassen, steigt die Zahl der positiven Kommentare sprungartig auf 88 Prozent an. „Das zeigt, wie viel Potenzial dieser Ansatz hat“, meint KhudaBukhsh.


Mehr Artikel

News

Jahrelanges Katz-und-Maus-Spiel zwischen Hackern und Verteidigern

Sophos hat den umfangreichen Forschungsbericht „Pacific Rim“ veröffentlicht, der detailliert ein jahrelanges Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit mehreren staatlich unterstützten Cybercrime-Gruppierungen aus China beschreibt. Im Lauf der Auseinandersetzung entdeckte Sophos ein riesiges, gegnerisches Cybercrime-Ökosystem. […]

News

Salesforce kündigt autonome KI-Agenten an

Agentforce soll es Unternehmen ermöglichen, autonome KI-Agenten für zahlreiche Unternehmensfunktionen zu entwickeln und einzusetzen. So bearbeitet Agentforce beispielsweise selbstständig Kundenanliegen, qualifiziert Vertriebsleads und optimiert Marketingkampagnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*