„Gray Bots“ greifen Websites bis zu eine halbe Million Mal pro Tag an

Die Threat-Analysten von Barracuda haben im Rahmen eines neuen Reports das hartnäckige Verhalten von Bots mit generativer KI (Gen AI) hervorgehoben, die Teil einer neueren Kategorie von Bots sind, die Barracuda als „Gray Bots“ bezeichnet. [...]

„Gray Bots“ sind automatisierte Programme, die nicht offensichtlich schädlich sind, aber das Internet mit dem Ziel durchsuchen, Informationen von Websites und anderen Web-Anwendungen zu extrahieren. (c) stock.adobe.com/Melvin

Scraper-Bots mit generativer KI greifen Websites 24 Stunden am Tag mit bis zu einer halben Million Informationsanfragen an. Das zeigen die aktuellen Erkennungsdaten von Barracuda. Die Threat-Analysten von Barracuda haben im Rahmen eines neuen Reports das hartnäckige Verhalten von Bots mit generativer KI (GenAI) hervorgehoben, die Teil einer neueren Kategorie von Bots sind, die Barracuda als „Gray Bots“ bezeichnet. Dabei handelt es sich um automatisierte Programme, die nicht offensichtlich schädlich sind, aber das Internet mit dem Ziel durchsuchen, Informationen von Websites und anderen Web-Anwendungen zu extrahieren. Beispiele für Gray Bots sind Web-Scraper-Bots und automatisierte Content-Aggregatoren, die Web-Inhalte wie Nachrichten, Rezensionen, Reiseangebote und weitere Informationen sammeln.

Ergebnisse des Reports

  • Zwischen Dezember 2024 und Ende Februar 2025 gingen Millionen von Anfragen von Bots mit generativer KI wie ClaudeBot oder dem Bytespider-Bot von TikTok bei Web-Anwendungen ein.
  • Eine überwachte Web-Anwendung erhielt über einen Zeitraum von 30 Tagen 9,7 Millionen Anfragen von Scraper-Bots mit generativer KI.
  • Eine weitere überwachte Web-Anwendung erhielt an einem einzigen Tag über eine halbe Million Anfragen von Scraper-Bots mit generativer KI.
  • Eine Analyse des Gray-Bot-Traffics, der auf eine weitere überwachte Web-Anwendung abzielte, ergab, dass die Anfragen – im Durchschnitt etwa 17.000 pro Stunde – über einen Zeitraum von 24 Stunden relativ konstant blieben

„Häufiges Scraping durch Gray Bots kann die Web-Performance beeinträchtigen und ihre Präsenz auf Websites kann Website-Analysen verzerren, was zu irreführenden Erkenntnissen führt und die Entscheidungsfindung beeinträchtigt“, sagt Klaus Gheri, VP&GM Network Security bei Barracuda. (c) Barracuda


„Gray Bots mit generativer KI verwischen die Grenzen legitimer Online-Aktivitäten“, sagt Klaus Gheri, VP&GM Network Security bei Barracuda. „Sie sind in der Lage, riesige Mengen sensibler, geschützter oder kommerzieller Daten abzugreifen sowie den Datenverkehr von Web-Anwendungen zu überlasten und Betriebsabläufe zu stören. Häufiges Scraping durch Gray Bots kann die Web-Performance beeinträchtigen und ihre Präsenz auf Websites kann Website-Analysen verzerren, was zu irreführenden Erkenntnissen führt und die Entscheidungsfindung beeinträchtigt. Für viele Organisationen ist die Verwaltung von Gray-Bot-Traffic zu einem wichtigen Teil ihrer Strategien zur Anwendungssicherheit geworden.“

Schutz gegen Gray Bots

Um sich gegen Gray Bots mit generativer KI und das Auslesen von Informationen zu schützen, können Websites die Datei robots.txt nutzen. Dabei handelt es sich um eine Code-Zeile, die der Website hinzugefügt wird und einem Scraper signalisiert, dass er keine Daten aus der Website extrahieren darf. Die Datei robots.txt ist jedoch nicht rechtsverbindlich, der spezifische Name des Scraper-Bots muss ihr hinzugefügt werden und nicht jeder Nutzer eines Bots mit generativer KI hält sich an diese Vorgabe.

Organisationen können ihren Schutz vor unerwünschten Gray Bots mit generativer KI verbessern, indem sie einen Bot-Schutz implementieren, der in der Lage ist, die Aktivitäten von Scraper-Bots mit generativer KI zu erkennen und zu blockieren. Fortschrittliche, moderne KI- und Machine-Learning-Funktionen unterstützen dabei, die schnell wachsende Bedrohungen durch Gray Bots mithilfe von verhaltensbasierter Erkennung, adaptivem Machine Learning, umfassendem Fingerprinting und Echtzeit-Blockierung unter Kontrolle zu halten.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*