Software-defined Storage fordert Datenretter

Dank vieler Vorteile erfreut sich SDS wachsender Beliebtheit. Die hohe Flexibilität birgt jedoch auch Nachteile – besonders, wenn Probleme auftauchen. [...]

Innerhalb von Software-definierten Storage-Umgebungen lassen sich Daten flexibel, effizient und kostengünstig speichern sowie verwalten. Gerade deshalb greifen Unternehmen gern auf die Systeme zurück, die erst seit wenigen Jahren erhältlich sind. Die hohe Flexibilität birgt jedoch Nachteile. Ähnlich wie auch im Falle eines RAID-Verbundes gestaltet sich die Rekonstruktion bei Datenverlust sehr aufwendig. Diese Erfahrung hat auch die Datenrettungsfirma DATARECOVERY gemacht.

SDS HAT VIELE VORTEILE

Mit Hilfe von Software-defined Storage (SDS) werden Datenspeicherung und -verwaltung von der zugrunde liegenden Hardware entkoppelt. Server, Speicher und Netzwerke werden virtualisiert und komplett softwareseitig verwaltet. Solche modernen Speicherlösungen warten mit vielen Vorteilen auf.

Durch die Zusammenfassung von Ressourcen in Speicher-Pools und die bedarfsgerechte Bereitstellung lassen sich vorhandene Systeme effizienter nutzen und Kosten sparen. Das dynamische Modell bietet eine hohe Flexibilität. Die Storage-Architektur kann schnell und unkompliziert an veränderte Anforderungen angepasst werden. Speicherressourcen werden nur dort bereitgestellt, wo aktuell ein Bedarf besteht. SDS-Umgebungen ermöglichen den IT-Administratoren eines Unternehmens schnelle und flexible Reaktionen.

Trotz aller Vorteile weisen die Storages einen großen Nachteil auf: Im Ernstfall ist eine Datenrekonstruktion aufgrund der komplexen Systemarchitektur nur mit großem Aufwand zu realisieren. Hardware-Defekte und Konfigurationsfehler kommen ebenso wie das versehentliche Löschen der virtuellen Laufwerke als Ursachen für einen Datencrash infrage. Ohne ein aktuelles Backup können in solchen Fällen nur noch professionelle Datenretter die Daten wiederherstellen. Weil diese auf einer virtuellen Ebene gespeichert und nicht direkt auf dem Datenträger lokalisiert sind, kann man sie nicht einfach auslesen.

HERAUSFORDERUNGEN FÜR DATENRETTER

Gerade wenn HDD- und SSD-Platten sowie Flash-Speicher gemeinsam genutzt werden, können eventuelle Vorkonfigurationen des Systems die Datenrekonstruktion verkomplizieren. Des Weiteren wird es problematisch, falls Informationen zur Systemkonfiguration gänzlich fehlen.

Auf dem Markt sind neben Open-Source-Lösungen auch Produkte von Microsoft, HP, Dell, VMware oder anderen Anbietern erhältlich. Jeder Hersteller greift jedoch auf eine eigene Technologie zur Datenspeicherung in SDS-Umgebungen zurück. Dokumentiert sind diese in der Regel nicht, was die Datenwiederherstellung erschwert. Die Datenretter müssen folglich eine maßgeschneiderte Rekonstruktionsstrategie entwickeln. Dafür ist zunächst eine detaillierte Analyse des vorliegenden Schadens erforderlich. Anschließend müssen die Spezialisten das Speicher-Layout untersuchen und dechiffrieren. Erst dann lassen sich die Dateisysteme rekonstruieren und geeignete Wiederherstellungsverfahren erarbeiten. Solche speziellen Entwicklungsleistungen können meist nur erfahrene Datenrettungsunternehmen mit einer eigenen Forschungsabteilung realisieren.

AKTUELLES FALLBEISPIEL

Wie aufwendig eine Datenwiederherstellung innerhalb von Software-defined Storage-Umgebungen sein kann, belegt der aktuelle Fall einer Schweizer Universität. Dort kamen zwei Systeme mit jeweils 24 Festplatten zum Einsatz. Diese waren in ein RAID6-Array integriert und über „Windows Storage Spaces“ (WSS) von Microsoft zusammengefasst. Zwei der Platten stellten ihren Dienst ein und mussten ausgetauscht werden. Der Neuaufbau des RAID-Verbunds gelang allerdings nicht. Mehrere erfolglose Wiederherstellungsversuche folgten. Letztendlich war ein Zugriff auf die virtuellen Festplatten über den Server-Manager nicht mehr möglich.

Die Universität bat die Leipziger Datenrettungsfirma DATARECOVERY um Hilfe. Eine umfangreiche Analyse des Schadens ergab schließlich, dass das System durch die mehrfachen fehlerhaften Schreibzugriffe überschrieben worden ist. Zudem waren die virtuellen Festplatten massiv beschädigt.

Die Spezialisten fertigten ein virtuelles Layout der RAID-Arrays an, um anschließend die Windows-Storage-Spaces-Ebene rekonstruieren zu können. Da die WSS-Technologie nicht dokumentiert ist, gestaltete sich das Verfahren derart kompliziert. „Nach aktuellem Stand sind uns keine öffentlich verfügbaren Datenrettungstools oder Unternehmen bekannt, die eine Wiederherstellung von Daten innerhalb einer defekten Windows-Storage-Spaces-Umgebung erfolgreich durchführen können“, unterstreicht der CEO von DATARECOVERY Jan Bindig.

Aufgrund der verwendeten Storage-Lösung lagen vier weitere virtuelle Ebenen vor. Hunderttausende Speicherfragmente mussten zusammengesetzt und mehr als zehn Millionen Informationen ausgewertet werden, um den gesamten Speicher-Pool nachbilden zu können. Schlussendlich gelang eine Rekonstruktion der internen Struktur aller Datenträger und des Dateisystems. Die Daten (insgesamt über 25 Terabyte) konnten extrahiert und die virtuellen Speichermedien wiederhergestellt werden. (pi/rnf)


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*