Analyse-Tool erkennt Sarkasmus in Postings

Ein Analyse-Tool soll künftig in der Lage sein, Sarkasmus in Online-Postings zu erkennen. Die Trefferquote liegt dem Entwickler Spotter zufolge bei 80 Prozent. [...]

Die französische Firma gibt an, dass zu ihren Kunden das britische Innenministerium und die Europäische Kommission gehören. Anwendungsgebiet sind vor allem Beschwerden.

Die Software benutzt eine Kombination aus Sprachwissenschaft, Semantik und Heuristik um Algorithmen zu erzeugen, die Berichte über die Online-Reputation der Spotter-Kunden abliefern können. Als Quelle dienen sowohl klassische Medien wie auch der Social-Media-Bereich. Bei der Analyse sollen auch zugrundeliegende Stimmungen wie eben Sarkasmus in Postings mit hoher Trefferquote erkennbar sein. Die Algorithmen erkennen die Untertöne in insgesamt 29 unterschiedlichen Sprachen, darunter ebenfalls Chinesisch, Russisch und Arabisch.

Eine der häufigsten Ursachen für Sarkasmus sei schlechter Service, auf den mit einem überschwänglichen aber nicht ernst gemeinten Dank reagiert werde. Auch Air France gehöre zu den Kunden. Wenn Passagiere sich über Twitter für einen verspäteten Flug bedanken, sei das meist nicht ernst gemeint, so Richard May der Verkaufsdirektor von Spotter in Großbritannien gegenüber der BBC.

Experten zeigen sich jedoch skeptisch. Um Sarkasmus zu erkennen, müssen Sprachnuancen, Tonfarbe und der gesamte Kontext miteinbezogen werden. Analyseprogramme dieser Art seien in den meisten Fällen nutzlos und können die menschliche Interpretation nicht ersetzen, so Simon Collister, der PR und Social Media am London College of Communication unterrichtet. Es liege schlussendlich in der Entscheidung der Unternehmen und öffentlichen Einrichtungen, ob sie sich auf unzuverlässige Programme verlassen oder großen Personalaufwand für Social Media betreiben. (pte)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*