Wie Cyberkriminelle KI für ihre Zwecke nutzen

IT-Sicherheitsexperten der PSW GROUP informieren, wie Hacker KI für Cyberattacken und IT-Angriffe nutzen. [...]

Patrycja Schrenk, Geschäftsführerin der PSW GROUP (c) PSW GROUP
Patrycja Schrenk, Geschäftsführerin der PSW GROUP (c) PSW GROUP

KI ist bereits Teil des Alltags: Die Wissenschaft profitiert ebenso von KI wie das Gesundheitswesen, die Automobilbranche, das Marketing oder der Sektor Robotics. Auch die Cybersecurity hat den Nutzen erkannt: Mit Mitteln der künstlichen Intelligenz entwickeln sich neue Chancen zur Abwehr von Cyberrisiken. Im Kampf gegen Cyberbedrohungen bilden Mensch und KI inzwischen ein Team.

„Und das ist gut so, denn die Bedrohungslage ändert sich nahezu täglich“, sagt Patrycja Schrenk, Geschäftsführerin der PSW GROUP. „Künstliche Intelligenz ist längst auch auf der Seite der Cyberkriminellen angekommen. Denn so wie KI einerseits eine große Rolle bei der Erkennung von Bedrohungen sowie bei der Abwehr von Angriffen spielt, setzen andererseits auch Cyberkriminelle immer häufiger KI als Angriffswaffe ein.“

Die IT-Sicherheitsexpertin erklärt weiters: „So wie die lernenden Algorithmen in der Lage sind, Verhaltensmuster bei Angriffen zu erkennen und gezielt gegen diese vorzugehen, setzen Kriminelle eben diese Künstliche Intelligenz auch für Penetrationstechniken sowie zur Analyse und Nachahmung von Verhalten ein, um ihre Angriffe gezielter, schneller, koordinierter und vor allem effizienter auszuführen.“

Zwar hat nicht jeder Cyberkriminelle die Kenntnis, eigene KI-basierte Systeme zu programmieren, jedoch bieten inzwischen auch Dritte im Darknet derartige Systeme als „KI-as-a-Service“ an. Das Team um Patrycja Schrenk hat typische Einsatzmöglichkeiten der Kriminellen für Künstliche Intelligenz zusammengestellt.

Möchten Hacker Schwachstellen finden, über die sie in Systeme eindringen oder durch die sie Malware in Systeme bringen können, macht ihnen Künstliche Intelligenz die Suche sehr leicht. Denn automatisiert kann KI sehr viele Schnittstellen der Opfer-Systeme auf Schwachstellen untersuchen. Stoßen Cyberkriminelle so auf Schwachstellen, ist die Künstliche Intelligenz zu der Unterscheidung in der Lage, ob sie als Einfallstor für bösartigen Code oder zum Lahmlegen des Systems genutzt werden kann. Inzwischen können Cyberkriminelle dank Künstlicher Intelligenz sogar dynamisch anpassen.

Patrycja Schrenk erklärt: „Reagieren Hersteller beispielsweise mit Sicherheitspatches, passt sich der intelligente Schadcode automatisiert so an, dass er dennoch wüten kann. Maschinelles Lernen sorgt also dafür, dass der Schadcode immer weiter lernt und sich so auf Veränderungen einstellen kann.“

Häufig wird KI auch in Verbindung mit Malware genutzt, die per E-Mail verteilt wird: „Dank KI kann die Malware das Nutzerverhalten noch besser imitieren. Die Texte in den E-Mails werden mit so immenser semantischer Qualität verfasst, dass ein Unterscheiden zu echten E-Mails durch Empfangende überaus schwer sein kann. Dabei lernt die Künstliche Intelligenz mit jedem Mal aus Fehlern und optimiert bei jedem weiteren Angriff ihre Taktik weiter“, erklärt Schrenk.

Erpressung – etwa mithilfe von Ransomware, die typischerweise per E-Mail verteilt wird – gilt derzeit als eine der verbreitetsten Angriffsmethoden. „Um beispielsweise Geschäftsführende oder Führungskräfte erpressen zu können, bedarf es ausreichender Informationen über die Opfer. Zur Informationsbeschaffung setzen Cyberkriminelle inzwischen auf Künstliche Intelligenz. Mittels KI durchsuchen sie beispielsweise soziale Netzwerke, Foren oder andere Websites gezielt nach Informationen zur Zielpersonen – und zwar viel effizienter, als es ohne KI möglich wäre“, informiert Patrycja Schrenk. Daneben hat sich auch das Erraten von Passwörtern vereinfacht: „Bereits heute existieren derartige KI-Systeme, die durch maschinelles Lernen Passwörter erfolgreich erraten“, ergänzt die IT-Sicherheitsexpertin.

Künstliche Intelligenz umgeht aber auch Captcha, die eigentlich als Spam-Schutz fungieren: Durch Bildmosaike oder einfache Gleichungen erkennen Systeme, dass Nutzende Menschen und keine Maschinen sind. „Dummerweise durchbricht Künstliche Intelligenz diese Barriere kinderleicht. Denn durch maschinelles Lernen werden Künstliche Intelligenzen mit so vielen verschiedenen Bildern gefüttert, bis sie diese automatisiert erkennen und Captchas lösen können. Das hebelt diesen Sicherheitsmechanismus faktisch aus und eine Unterscheidung zwischen Mensch und Maschine wird unmöglich“, so Schrenk.


Mehr Artikel

News

Lauf-Apps als Sicherheitsrisiko

Lauf-Apps sammeln Informationen über das eigene Training und tracken somit alle Fortschritte, die man beim Laufen gemacht hat. Allerdings benötigen sie um richtig zu funktionieren präzise Daten, darunter auch den Standort von Nutzern.
Diese Daten stehen oft öffentlich zur Verfügung. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*