KI gegen KI? – Die Auswirkungen von ChatGPT auf die IT-Security

Die Einsatzgebiete von ChatGPT sind äußerst vielfältig. Begeisterte Nutzer lassen sich etwa Märchen schreiben oder lösen juristische Probleme aus Examen. Auch Programmieren und Coden kann das Tool mittlerweile ganz passabel. [...]

Foto: mohamedhassan/Pixabay

Die Suche mithilfe von Internet-Suchmaschinen wird ebenfalls gerade revolutioniert. Bisher taten sich die Such-Algorithmen noch schwer, mit Native-Language-Anfragen umzugehen, weshalb man sich mit abstrakten Stichpunkten begnügen musste.

ChatGPT hingegen löst natürlich klingende Fragestellungen wie „Nenne mir bitte alle Hotels in Salzburg vom 03. bis 05. März für zwei Personen in der Preisklasse von 80 bis 150 Euro pro Nacht“ ohne größere Probleme.

Doch der Fortschritt in der Technologie hat natürlich seine Schattenseiten. Mittlerweile loten nicht nur normale Nutzer, sondern auch immer häufiger Cyberkriminelle die zahlreichen Möglichkeiten der neuen Technologie aus.

Auf Knopfdruck könnte ChatGPT etwa täuschend echte Phishing-Mails verfassen. Sicherheitsexperten haben zudem in Experimenten dargelegt, wie einfach es ist, mit ChatGPT polymorphe Malware zu erstellen. Diese adaptiert dabei ihren Code ständig, sodass herkömmliche Virenscanner – die auf Mustererkennung basieren – sie nicht erkennen.

Mit ChatGPT sind selbst technisch wenig bedarfte Cyberkriminelle in der Lage, automatisiert unzählige Varianten einer solchen Schadsoftware zu erzeugen und zu verbreiten. Auch wenn Open AI natürlich versucht, solchem Missbrauch den Riegel vorzuschieben, bleibt der einzige Weg, sich zu schützen, ebenfalls mit KI nachzurüsten.

Das Wettrüsten hat schon begonnen

Zukunftsweisende Security-Systeme verwenden bereits seit einiger Zeit KI als Unterstützung bei der Bedrohungserkennung. Anhand von  Machine Learning versuchen sie Codeschnipsel zu identifizieren, die denen bekannter Malware ähneln.

Zudem basieren die meisten Abwehrmechanismen heutzutage auf Verhaltenserkennung: Sie untersuchen Aktivitäten im Netzwerk, um dubiose Vorgänge aufzuspüren. Sollte ein Mitarbeiter ohne jeden Grund plötzlich große Datenmengen herunterladen oder ein Kunde kleine Geldbeträge auf viele unterschiedliche Konten einzahlen, schlägt das System Alarm.

Vor allem Banken setzen solche Algorithmen oft zur Betrugserkennung ein. Als Antwort darauf zielen Cyberkriminelle darauf ab, diese Erkennungsmethoden auszutricksen und täuschen möglichst unauffälliges Verhalten vor. Ihre Vorgehensweisen werden dabei immer komplexer und schwieriger aufzuspüren.

Fazit: Nur KI-gestützte Sicherheitssysteme sind gegen KI-Angriffe sicher

Unternehmen müssen in Zukunft damit rechnen, dass Angreifer vermehrt auf  Künstliche Intelligenz setzen. Öffentliche Projekte wie ChatGPT sind dabei nicht die einzigen Tools, die ihnen zur Verfügung stehen.

Im Darknet existieren zahlreiche, höchst professionell aufgestellte Organisationen, die wie Service-Unternehmen agieren. Sie besitzen erhebliche finanzielle Ressourcen und können ansprechende Gehälter auszahlen, um Fachpersonal aus der Industrie abzuwerben. Einige KI-Experten können einer solchen Verlockung nicht widerstehen und wechseln auf die kriminelle Seite.

Das Wettrüsten geht also weiter und beschleunigt sich immer mehr. Am Ende gewinnt dann die KI mit dem besseren Algorithmus. Gerade deshalb sollten Unternehmen schon jetzt in eine sichere Zukunft mit moderner Schutztechnologie investieren, damit sie nicht auf dem falschen Fuß erwischt werden.

*Wolfgang Kurz, Dipl.-Ing., Jahrgang 1973, gründete die indevis GmbH noch während seines Studiums der Elektrotechnik in München, Abschlussjahrgang 2000. Er ist ausgewiesener Experte im Bereich Infrastruktur und Rechenzentrum und verantwortete bis 2019 den technischen Bereich bei indevis, insbesondere die Entwicklung sowie den Betrieb der indevis Managed Security Services. 

powered by www.it-daily.net


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*