Gastkommentar: Die virtuelle Gefahr

Die Kehrseite der Virtualisierungs-Medaille kennen Datenretter und deren Kunden aus leidvoller Erfahrung. [...]

Virtuelle Umgebungen sind an sich eine feine Sache. Wer nicht mehr mehrere Server nebeneinander aufstellen, betreiben und warten will, greift gerne zu Virtualisierungstechnologien, Server sind besser ausgelastet, Anschaffung und Betrieb werden daher günstiger und migrierbar wird die Sache auch. Soweit die positiven Seiten. Die Kehrseite der Medaille kennen Datenretter und deren Kunden aus leidvoller Erfahrung. Denn mit virtuellen Servern kann man sehr leicht sehr viel Schaden anrichten. Löscht man auf einem Server eine Datei, ist das eine Kleinigkeit. Löscht man allerdings auf einem virtualisierten Host eine Datei, kann damit gleich ein ganzer Server weg sein. Schließlich laufen auf diesen Systemen ganze Server in einer einzigen Datei. Eine Zeitbombe, falls keine Sicherungen vorhanden sind.
Es muss nicht einmal ein Anwenderfehler sein: Wenn auf dem »echten« Server ein Defekt auftritt, ist nicht nur ein Server betroffen, sondern in der Regel gleich alle. Das potenziert den möglichen Schaden. Schließlich stehen dann Stehzeiten ins Haus, die um ein vielfaches größer sind als in einer realen Server-Umgebung. Der Schaden ist also mit hoher Wahrscheinlichkeit wesentlich größer, als wenn nur ein normaler Server betroffen wäre. Außerdem wird eine Datenrettung durch die verschiedenen Ebenen in den meisten Fällen aufwendiger. Hinzu kommt, dass die Hersteller der Virtualisierungstechnologien sich nicht gerne in die Karten schauen lassen. Dateisysteme sind oft proprietär und daher auch spärlich bis gar nicht dokumentiert. Genau das macht eine mögliche Datenrettung sehr aufwendig. Um ein langwieriges Reverse Engeneering kommt man nicht herum. Das kostet Zeit und Geld – während unter Umständen der ganze Betrieb steht. Klar ist, dass professionelle Datenretter in so einem Fall auf Forschung zurückgreifen müssen, die bereits vorher für den Ernstfall entwickelt wurde. Wer erst damit beginnen muss, Technologien zu entwickeln, bringt den Kunden unter Umständen an den Rand des Ruins, bevor die Daten wieder da sind.
Grundsätzlich gilt, dass auf virtuellen Maschinen alle Fehler auftreten können, die auch auf physikalischen Servern auftreten. Hinzu kommen neue Gefahren, die aufgrund der zusätzlichen Layer zwischen physikalischen und vitalisierten Servern entstehen. Dessen muss man sich bewusst sein. Bei Anschaffung, Betrieb – und auch beim Design der Sicherungssysteme.
* Nicolas Ehrschwendner (ne@attingo.com) ist Geschäftsführer von Attingo.


Mehr Artikel

Die Teilnehmer des Roundtables (v.l.n.r.): Roswitha Bachbauer (CANCOM Austria), Thomas Boll (Boll Engineering AG), Manfred Weiss (ITWelt.at) und Udo Schneider (Trend Micro). (c) timeline/Rudi Handl
News

Security in der NIS2-Ära

NIS2 ist mehr ein organisatorisches Thema als ein technisches. Und: Von der Richtlinie sind via Lieferketten wesentlich mehr Unternehmen betroffen als ursprünglich geplant, womit das Sicherheitsniveau auf breiter Basis gehoben wird. Beim ITWelt.at Roundtable diskutierten drei IT-Experten und -Expertinnen über die Herausforderungen und Chancen von NIS2. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*