Botnetze könnten Strompreise mit Hilfe von IoT manipulieren

Cyber-Kriminelle versuchen auf gezielte Weise von Marktschwankungen zu profitieren. [...]

Mit dem Siegeszug des Internets der Dinge steigt die Gefahr der illegalen Strompreismanipulation. (c) Pixabay
Mit dem Siegeszug des Internets der Dinge steigt die Gefahr der illegalen Strompreismanipulation. (c) Pixabay

Mit dem Siegeszug des Internets der Dinge steigt die Gefahr der illegalen Strompreismanipulation, warnen Forscher des Georgia Institute of Technology auf der Black Hat USA 2020, einer der wichtigsten Konferenzen zur Sicherheit in der Informationstechnik. Ziel könnte sein, den Stromverbrauch schlagartig zu erhöhen oder zu verringern, um von Preisschwankungen zu profitieren. Laut den Experten könnten Botnetze hierzu eingesetzt werden.

Unterscheidbarkeit schwierig

„Wenn ein Angreifer die Strompreise leicht zu seinen Gunsten verändern kann, ist es so, dass er heute schon weiß, wie die Börse am Tag darauf reagiert“, sagt Tohid Shekari, wissenschaftlicher Mitarbeiter an der School of Electrical and Computer Engineering der Hochschule in Atlanta. Es sei kaum möglich, eine solche Manipulation von normalen Schwankungen im Stromverbrauch zu unterscheiden.

Mit „Mirai“ gibt es eine Linux-Schadsoftware, mit deren Hilfe sich Botnetze aufbauen lassen. Sie könnte außer von Angreifern, die von manipulierten Strompreisen zu profitieren gedenken, auch dafür genutzt werden, um Energieversorgern schwere Schäden zuzufügen und damit deren Aktienkurse zu manipulieren. Um stets so viel Strom anzubieten, wie benötigt wird, setzen die Versorger auf Wetterprognosen, Erfahrungswerte und andere Fakten. Scheint am nächsten Tag durchgehend die Sonne, können in dieser Zeit fossile Kraftwerke abgeschaltet werden.

Schäden für Energieversorger

Bei Manipulationen müssen Versorger Strom zu hohen Preisen nachkaufen, oder sie bleiben auf überschüssiger Energie sitzen. Die Forscher bemängeln, dass Geräte, die ins Internet der Dinge eingebunden sind, keine Vorkehrungen haben, mit denen sich Manipulationen von außen nachweisen lassen. Schnelle Gegenmaßnahmen können also nicht eingeleitet werden. „Wir haben viele Simulationen und mathematische Analysen durchgeführt“, erklärt Raheem Beyah, Professor an der Fakultät für Elektrotechnik und Informationstechnik.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*