KI-System erforscht Ursachen religiöser Gewalt

Ein innovativer Ansatz kombiniert Computermodelle und kognitive Psychologie. [...]

Gedenkstätte: KI analysiert Gewalt. (c) Katharina Wieland Müller, pixelio.de

Wissenschaftler der University of Oxford http://ox.ac.uk haben ein System entwickelt, das mithilfe von Künstlicher Intelligenz (KI) die Ursachen von religiösen Konflikten analysiert. Der Ansatz kombiniert komplexe Computermodelle und kognitive Psychologie, um Religiosität zu simulieren und auf diese Weise einen besseren Einblick in die Umstände zu erhalten, die zu religiöser Gewalt führen. Die Forscher hoffen auf Basis der Ergebnisse ihrer Untersuchungen, Regierungen künftig mehr Unterstützung bei der Verhinderung sozialer Konflikte und von Terrorattacken zu bieten.

Völlig neuer Ansatz

„99 Prozent der Menschen kennen KI nur in Zusammenhang mit maschinellem Lernen und automatischen Systemen, die bestimmte Aufgaben, wie das Klassifizieren von positiven oder negativen Twitter-Meldungen, übernehmen können. Bei unseren Untersuchungen setzen wir aber eine sogenannte Multi-Agent-KI ein, um ein psychologisch gesehen möglichst realistisches Abbild des menschlichen Verhaltens zu erhalten“, erklärt Justin Lane, Doktoratsstudent am Institute of Cognitive & Evolutionary Anthropology in Oxford. Dieser Ansatz sei völlig neu und habe enormes Potenzial.

„Um mittels KI so etwas wie Religion oder Kultur zu erforschen, müssen wir die menschliche Psyche simulieren. Sie ist die Ausgangsbasis unseres kulturellen und religiösen Denkens und Handelns“, betont Lane. Wenn man diese komplexen Prozesse besser verstehen würde, könnte man diese Erkenntnisse nutzen, um soziale Konflikte nicht nur leichter unter Kontrolle zu bringen, sondern sogar auch weitestgehend zu minimieren, ist der Experte überzeugt: „Dieses Projekt könnte, wenn es effizient genutzt wird, ein unglaublich positives Werkzeug sein, das die Stabilität unserer Gesellschaft stärkt“, so Lane.

Daten realer Terrorakte

Zur Entwicklung ihrer realistischen Simulationen haben die Forscher bestimmte Regeln und Theorien zur kognitiven Psychologie des Menschen in eine spezielle KI-Software programmiert. Diese wurde dann einem ausgiebigen Training unterzogen, das auf umfassenden Daten zu realen historischen Konflikten und Terrorakten, wie etwa dem Anschlag in London im Jahr 2017 oder dem Bombenangriff auf den Boston-Marathon im Jahr 2013, beruhte.

Nach abgeschlossenem Training kreierten die Wissenschaftler aus den zusammengetragenen Infos sogenannte „psychologische KI-Agenten“, die das Verhalten echter Menschen nachahmen. „Um Interaktionen in größeren Gruppen und Gesellschaften zu simulieren, mussten wir eine künstliche Umgebung schaffen und diese mit Millionen von KI-Abbildern besiedeln, die sich lediglich in punkto Alter oder ethischer Herkunft unterscheiden“, schildert Lane. In einem Folgeprojekt will er nun mit derselben Methode demografische Verschiebungen durch Migration in Europa untersuchen.


Mehr Artikel

News

Public Key Infrastructure: Best Practices für einen erfolgreichen Zertifikats-Widerruf

Um die Sicherheit ihrer Public Key Infrastructure (PKI) aufrecht zu erhalten, müssen PKI-Teams, sobald bei einer Zertifizierungsstelle eine Sicherheitslücke entdeckt worden ist, sämtliche betroffenen Zertifikate widerrufen. Ein wichtiger Vorgang, der zwar nicht regelmäßig, aber doch so häufig auftritt, dass es sich lohnt, PKI-Teams einige Best Practices für einen effektiven und effizienten Zertifikatswiderruf an die Hand zu geben. […]

News

UBIT Security-Talk: Cyberkriminalität wächst unaufhaltsam

Jedes Unternehmen, das IT-Systeme nutzt, ist potenziell gefährdet Opfer von Cyberkriminalität zu werden, denn die Bedrohung und die Anzahl der Hackerangriffe in Österreich nimmt stetig zu. Die Experts Group IT-Security der Wirtschaftskammer Salzburg lädt am 11. November 2024 zum „UBIT Security-Talk Cyber Defense“ ein, um Unternehmen in Salzburg zu unterstützen, sich besser gegen diese Bedrohungen zu wappnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*