„Ghostwriter“: KI entlarvt Schummler

Ein KI-System ermittelt mit 90 Prozent Sicherheit, ob Arbeiten selbst geschrieben sind. [...]

Seminararbeit und Co.: Fremdschreiben wird enttarnt. (c) nastya_gepp, pixabay.com

Immer mehr Studenten und Schüler lassen wichtige Arbeiten von anderen schreiben. In Zukunft könnte eine KI von Forschern der Universität Kopenhagen dem einen Riegel vorschieben. Denn das – nach den Auftragsschreibern – „Ghostwriter“ genannte System erkennt mit 90-prozentiger Genauigkeit, ob eine Arbeit auch wirklich vom angeblichen Verfasser stammt. Die Technologie könnte zudem helfen, Fälschungen von Dokumenten zu erkennen oder Twitter-Bots zu entlarven.

Maschinenlernen gegen Ghostwriter

Aus Schulen rund um die Welt ist bekannt: Steigender Leistungsdruck führt zu mehr Schummeln. In Dänemark kommt daher die Plattform „Lectio“ des Unternehmens MaCom zum Einsatz. Diese sucht in wichtigen schriftlichen Arbeiten nach offensichtlichen Plagiaten in Form von direkt aus früheren Arbeiten kopierten Textstellen. „Das Problem ist, wenn jemand bezahlt wurde, um eine Arbeit zu schreiben, wird Lectio das nicht erkennen“, meint der Informatik-Doktorand Stephan Lorenzen. Er hat an der neuen KI mitgearbeitet, die verspricht, von Ghostwritern verfasste Arbeiten auch wirklich als solche zu erkennen.

Um das zu ermöglichen, sucht das System stilistische Abweichungen zwischen der aktuellen Arbeit und früheren Arbeiten eines Schülers. „Neben anderen Variablen betrachtet das Programm Wortlänge, Satzstruktur und wie Wörter genutzt werden“, erklärt Lorenzen. Das umfasst auch, ob und wie Abkürzungen genutzt werden. Die Basis für die KI bilden dabei Maschinenlernen und neuronale Netze. Als Trainingsdatensatz hat MaCom 130.000 Arbeiten von 10.000 Schülern verfügbar gemacht. Das vorerst als Forschungsprojekt gedachte „Ghostwriter“ erkennt nun zu fast 90 Prozent genau, ob eine Arbeit vom angeblichen Urheber oder eben einem Ghostwriter stammt.

Potenzial nicht nur an Schulen

Lorenzen hält für durchaus realistisch, dass das System in nicht allzu ferner Zukunft tatsächlich an Schulen zum Einsatz kommt. Immerhin müssten diese technologisch am Puls der Zeit bleiben, wenn es um die Prüfung der Echtheit von Arbeiten geht. „Bevor es dazu kommt, bedarf es aber einer ethischen Diskussion, wie die Technologie genutzt werden sollte“, betont der Informatiker. Er warnt speziell davor, Resultate des Programms als alleiniges Entscheidungskriterium zu nutzen.

Die dem System zugrunde liegende Technologie könnte auch für andere Anwendungen interessant sein. So könnte sie Polizeibehörden helfen, Dokumente auf Echtheit zu prüfen. Experten betrachten dazu schließlich qualitative Parallelen und Unterschiede zwischen Schriftstücken. „Wir könnten große Mengen Daten in kurzer Zeit ansehen und Muster finden“, meint Lorenzen. Bereits praktisch erprobt haben die Forscher wiederum, dass ihre KI bei Tweets feststellen kann, ob diese wirklich von einem User, von einem bezahlten Schreiber oder einem Bot stammen.


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*