SSD gegen magnetische Festplatte: Die geheimen Schwächen der SSD

Die SSD ist der Festplatte in mancher Hinsicht überlegen. Doch in puncto Ausfallsicherheit oder Datenrekonstruktion zeigen sich Schwächen. [...]

SOLID STATE DISK – HOHER AUFWAND BEI PHYSIKALISCHEN UND LOGISCHEN SCHÄDEN
Gerade in solchen Momenten wird die SSD gerne als alternatives Allheilmittel herbeigerufen. Der große Vorteil ist dabei der Verzicht auf jegliche Form beweglicher Komponenten. Doch der sichere Schein trügt, denn die Tatsache fehlender Mechanik allein macht eine SSD noch nicht zu einem ausfallsicheren Medium.
Die wichtigsten Komponenten einer SSD sind zum einen der Controller und zum anderen die Speichereinheiten, auch NAND-Flash Bausteine genannt. Gerade für Hersteller von SSD-Datenträgern stellt dies eine besondere Herausforderung dar, denn es gibt eine Vielzahl verschiedener Anbieter an Herstellern von Controllern, gleiches gilt für die NAND-Bausteine. Problematisch ist dies deshalb, weil unterschiedliche Controller auch unterschiedliche Algorithmen verwenden. So kommt es nicht selten vor, dass SSD-Hersteller bei einem Modell während des Produktionszyklus Controller wie auch Speicherbausteine verschiedener Lieferanten verbauen. Wo gerade bei HDDs die exakt baugleichen Komponenten innerhalb einer Modellreihe ein entscheidender Lösungsansatz zur physikalischen Instandsetzung sind, scheitert dieser Ansatz bei SSDs öfters aufgrund der fehlenden Konsequenz im Einsatz der verbauten Komponenten.
Speicherbausteine sind die zweite wesentliche Komponente einer SSD. Je nach Kapazität sind bis zu 64 Speicherbausteine nicht unüblich, diese sind teilweise auch noch in Sandwichbauweise auf dem Datenträger verbaut. Gerade die Kombination und die Qualität der Controller und Speicherbausteine haben enormen Einfluss auf die Geschwindigkeit der SSD – und noch viel mehr auf die Zuverlässigkeit, da die Qualität der Algorithmen mitunter zu wünschen übrig lässt. Doch gerade Controllerausfälle sind eine nicht seltene Fehlerursache für Datenverlust. Berücksichtigt man, dass in der Regel keine Dokumentation über die Funktion der verwendeten Algorithmen vorhanden ist, ist offensichtlich welche Anforderungen an einen professionellen Datenretter gestellt sind, falls die SSD tatsächlich ausfällt oder defekt ist.
Spezialanbieter für Datenrettung stecken deshalb als Voraussetzung für eine erfolgreiche und im Notfall rasche Datenrettung viel Zeit in Forschung und Entwicklung. Hervorzuheben ist das Reverse Engineering der verwendeten Algorithmen der im Markt erhältlichen Controller. Doch für die physikalische Datenrettung ist ebenfalls das Know How über den Aufbau der verwendeten Speicherchips vonnöten. Das sorgfältige Auslöten der einzelnen Speicherbänke ist notwendig, wobei bei steigender Zahl der Speicherbausteine der Aufwand der Techniker linear zunimmt. Gerade im Bereich der physikalischen Datenrettung ist der Aufwand bei herkömmlichen Festplatten meist deutlich geringer. Zwar nimmt auch hier der Arbeitsaufwand bei mechanischen Schäden mit der Anzahl der verbauten Schreib-/Leseeinheiten und Magnetscheiben zu, jedoch in deutlich geringerem Umfang als bei einer SSD.
Auch im Bereich der logischen Datenrettung zeigen sich deutliche Unterschiede zwischen herkömmlichen Festplatten und SSDs – auch hier eher zum Nachteil der SSD. Sind die Daten der einzelnen Speicherchips vollständig ausgelesen, dann ist die Arbeit noch lange nicht beendet. Gerade das Zusammenfügen dieses Datenpuzzles ist sehr zeit- und rechenaufwendig. Während in der Regel die Durchschnittsbearbeitungszeit bei mechanischen Festplatten zwischen zwei und vier Tagen liegt, kann diese bei SSDs je nach konkretem Schadensbild zwischen einigen Stunden bis hin zu wenigen Wochen betragen. Des Weiteren sind bei SSDs Schäden im Bereich der Firmware häufig verbreitet und können fatale Auswirkungen haben.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*