SSD gegen magnetische Festplatte: Die geheimen Schwächen der SSD

Die SSD ist der Festplatte in mancher Hinsicht überlegen. Doch in puncto Ausfallsicherheit oder Datenrekonstruktion zeigen sich Schwächen. [...]

SOLID STATE DISK – HOHER AUFWAND BEI PHYSIKALISCHEN UND LOGISCHEN SCHÄDEN
Gerade in solchen Momenten wird die SSD gerne als alternatives Allheilmittel herbeigerufen. Der große Vorteil ist dabei der Verzicht auf jegliche Form beweglicher Komponenten. Doch der sichere Schein trügt, denn die Tatsache fehlender Mechanik allein macht eine SSD noch nicht zu einem ausfallsicheren Medium.
Die wichtigsten Komponenten einer SSD sind zum einen der Controller und zum anderen die Speichereinheiten, auch NAND-Flash Bausteine genannt. Gerade für Hersteller von SSD-Datenträgern stellt dies eine besondere Herausforderung dar, denn es gibt eine Vielzahl verschiedener Anbieter an Herstellern von Controllern, gleiches gilt für die NAND-Bausteine. Problematisch ist dies deshalb, weil unterschiedliche Controller auch unterschiedliche Algorithmen verwenden. So kommt es nicht selten vor, dass SSD-Hersteller bei einem Modell während des Produktionszyklus Controller wie auch Speicherbausteine verschiedener Lieferanten verbauen. Wo gerade bei HDDs die exakt baugleichen Komponenten innerhalb einer Modellreihe ein entscheidender Lösungsansatz zur physikalischen Instandsetzung sind, scheitert dieser Ansatz bei SSDs öfters aufgrund der fehlenden Konsequenz im Einsatz der verbauten Komponenten.
Speicherbausteine sind die zweite wesentliche Komponente einer SSD. Je nach Kapazität sind bis zu 64 Speicherbausteine nicht unüblich, diese sind teilweise auch noch in Sandwichbauweise auf dem Datenträger verbaut. Gerade die Kombination und die Qualität der Controller und Speicherbausteine haben enormen Einfluss auf die Geschwindigkeit der SSD – und noch viel mehr auf die Zuverlässigkeit, da die Qualität der Algorithmen mitunter zu wünschen übrig lässt. Doch gerade Controllerausfälle sind eine nicht seltene Fehlerursache für Datenverlust. Berücksichtigt man, dass in der Regel keine Dokumentation über die Funktion der verwendeten Algorithmen vorhanden ist, ist offensichtlich welche Anforderungen an einen professionellen Datenretter gestellt sind, falls die SSD tatsächlich ausfällt oder defekt ist.
Spezialanbieter für Datenrettung stecken deshalb als Voraussetzung für eine erfolgreiche und im Notfall rasche Datenrettung viel Zeit in Forschung und Entwicklung. Hervorzuheben ist das Reverse Engineering der verwendeten Algorithmen der im Markt erhältlichen Controller. Doch für die physikalische Datenrettung ist ebenfalls das Know How über den Aufbau der verwendeten Speicherchips vonnöten. Das sorgfältige Auslöten der einzelnen Speicherbänke ist notwendig, wobei bei steigender Zahl der Speicherbausteine der Aufwand der Techniker linear zunimmt. Gerade im Bereich der physikalischen Datenrettung ist der Aufwand bei herkömmlichen Festplatten meist deutlich geringer. Zwar nimmt auch hier der Arbeitsaufwand bei mechanischen Schäden mit der Anzahl der verbauten Schreib-/Leseeinheiten und Magnetscheiben zu, jedoch in deutlich geringerem Umfang als bei einer SSD.
Auch im Bereich der logischen Datenrettung zeigen sich deutliche Unterschiede zwischen herkömmlichen Festplatten und SSDs – auch hier eher zum Nachteil der SSD. Sind die Daten der einzelnen Speicherchips vollständig ausgelesen, dann ist die Arbeit noch lange nicht beendet. Gerade das Zusammenfügen dieses Datenpuzzles ist sehr zeit- und rechenaufwendig. Während in der Regel die Durchschnittsbearbeitungszeit bei mechanischen Festplatten zwischen zwei und vier Tagen liegt, kann diese bei SSDs je nach konkretem Schadensbild zwischen einigen Stunden bis hin zu wenigen Wochen betragen. Des Weiteren sind bei SSDs Schäden im Bereich der Firmware häufig verbreitet und können fatale Auswirkungen haben.


Mehr Artikel

News

6 Grundsätze für eine KI-taugliche Datenbasis

Wer Künstliche Intelligenz nutzen will, muss über eine vertrauenswürdige Datengrundlage verfügen. Daten sind das Lebenselixier von KI-Systemen und bestimmen maßgeblich die Qualität und Zuverlässigkeit der Ergebnisse. Nur so können KI-Modelle robust, anpassungsfähig und vertrauenswürdig arbeiten. […]

News

Cybersicherheitsbudgets werden falsch priorisiert

Der ICS/OT Cybersecurity Budget Report 2025 von OPSWAT deckt erhebliche Lücken in den Cybersicherheitsbudgets sowie einen Anstieg von ICS/OT-fokussierten Angriffen auf. Ferner wird deutlich, wie durch eine unzureichende Finanzierung, falsch gesetzte Prioritäten und uneinheitliche Abwehrmaßnahmen kritische Infrastrukturen immer raffinierteren Bedrohungen ausgesetzt sind. […]

News

Nach dem Hype: Diese vier KI-Trends werden 2025 weiterhin prägen

Die vergangenen zwei Jahre haben einen regelrechten KI-Boom erlebt. Insbesondere generative Modelle (GenAI) haben sich rasant weiterentwickelt und etablieren sich zunehmend als feste Größe in den Arbeitsprozessen von Organisationen weltweit. Angesichts dieser Dynamik fragen sich nun viele Unternehmen, welche Entwicklungen das Jahr 2025 bestimmen werden und welche Potenziale sich daraus ergeben. […]

News

Generative KI als Sicherheitsrisiko

Eine neue Studie von Netskope zeigt einen 30-fachen Anstieg der Daten, die von Unternehmensanwendern im letzten Jahr an GenAI-Apps (generative KI) gesendet wurden. Dazu gehören sensible Daten wie Quellcode, regulierte Daten, Passwörter und Schlüssel sowie geistiges Eigentum. Dies erhöht das Risiko von kostspieligen Sicherheitsverletzungen, Compliance-Verstößen und Diebstahl geistigen Eigentums erheblich. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*