Festplatten für NAS-Systeme: Kostenoptimierte Qualität für den Dauerbetrieb

Das Datenvolumen wächst weiterhin ungebremst, und im gleichen Maß steigt die Nachfrage nach kosteneffizienten Storage-Lösungen. Eine entscheidende Rolle nehmen dabei NAS-Systeme ein. Sie benötigen allerdings spezielle Festplatten, um den notwendigen Dauerbetrieb bei gleichzeitiger Kosteneffizienz sicherzustellen. [...]

Rainer Kaese
Rainer Kaese
Immer mehr Daten werden in der Cloud gespeichert. Folglich drängt sich die Frage auf, ob überhaupt noch ein Bedarf an lokaler Datenspeicherung besteht, gerade auch im Hinblick auf Network-Attached-Storage (NAS)-Systeme. Es ist zwar richtig, dass in der Cloud ein maßgeblicher Teil der weltweit stetig wachsenden Datenmenge gespeichert wird. Es wird aber auch immer Szenarien geben, in denen Daten lokal gespeichert werden, etwa bei der Implementierung für gemeinsam genutzte Speichervolumen für kleine Arbeitsgruppen oder bei der Umsetzung einer Backup-Strategie. Hier sind NAS-Systeme eine ideale performance- und kostenoptimierte Lösung. 
Darüber hinaus verfügen heutige High-End-NAS-Modelle über viele Funktionen, die es bisher nur in teuren Enterprise-Storage-Servern mit Fibre-Channel-Anschluss gab, zum Beispiel: Snapshot, Failover, Datenkompression oder Daten-Deduplizierung. Mit solchen lokalen NAS-Systemen können Unternehmen den wachsenden Speicherbedarf wesentlich kostengünstiger abdecken.
Festplattenhersteller bieten adäquate Modelle
Zweifellos besteht also, Cloudspeicher hin oder her, ein großer Bedarf an NAS-Systemen, den die Festplattenhersteller mit der Entwicklung spezieller, auf die spezifischen Anforderungen zugeschnittener Festplattenmodelle aufgegriffen haben. Bei diesen Modellen kommt es darauf an, große Datenmengen rund um die Uhr zuverlässig zu speichern und verfügbar zu halten.
NAS-HDDs unterscheiden sich in ihren Spezifikationen in einigen Punkten von herkömmlichen Festplatten für Desktop-PCs oder Server. Sie werden speziell für lange Laufzeiten und hohe Zuverlässigkeit entwickelt und getestet, das heißt, sie sind für den Dauereinsatz konzipiert – 24 Stunden am Tag, sieben Tage die Woche und 365 Tage im Jahr (24/7/365 oder 24/7). Diese Form des Dauerbetriebs ist bei herkömmlichen internen Festplatten, die man üblicherweise in Notebooks und PCs findet, nicht vorgesehen; die Betriebsdauer von Client-Laufwerken fällt deshalb mit 8 oder 16 Stunden pro Tag geringer aus.
Wie NAS-Festplatten sind auch die Modelle für Server für den Dauerbetrieb in Systemen mit vielen eng zusammen verbauten Platten konzipiert. Der entscheidende Unterschied ist die zulässige Belastung durch den Datenzugriff: Server-Festplatten sind für konstant hohe Datenmengen, wie sie in Systemen mit vielen Benutzern und Prozessen oder für Datenbankanwendungen auftreten, geeignet, spezifiziert und qualifiziert. NAS-HDDs hingegen wurden für weniger anspruchsvolle Lasten entwickelt, wie sie zum Beispiel in zentralen Netzwerkspeichern auftreten. Somit positionieren sich die NAS-Festplatten genau zwischen den Enterprise-Server-Platten und den Arbeitsplatzrechner-HDDs – sowohl im Hinblick auf Lebensdauer und Zuverlässigkeit als auch hinsichtlich des Preises.
Die NAS-Zukunft bleibt Festplatten-dominiert
Dass NAS-Systeme eine Berechtigung haben, steht außer Frage. Doch in welche Richtung geht die Entwicklung, gerade auch hinsichtlich des anbrechenden Solid-State-Drive (SSD)-Zeitalters? Die Preise von SSDs sind beträchtlich gefallen, und in der Tat verwenden heute viele High-End-NAS-Systeme bereits SSDs als Cache. SSDs bieten einen immensen Vorteil in Sachen Geschwindigkeit, aber wenn es lediglich um die Speicherung von großen Datenmengen bei niedrigen Kosten pro Kapazitätseinheit geht, haben rotierende Magnetscheiben immer noch die Nase vorn, und zwar eindeutig.
Der Grund ist technologisch bedingt: Vereinfacht gesagt werden SSDs aus Halbleiterspeicherzellen aufgebaut, wobei jede Zelle einen eigenen Transistor zum Lesen und Schreiben hat und mit individueller Verdrahtung ausgestattet werden muss. Trotz der immer kleineren Strukturen und der dreidimensionalen Anordnung der Zellen muss zum Verdoppeln der Speicherkapazität die Anzahl der Transistoren, Speicherelemente und Verdrahtungen verdoppelt werden; die Konsequenz ist eine näherungsweise lineare Erhöhung der Kosten mit der Kapazität. Bei Festplatten hingegen gibt es Methoden, um die Datendichte auf einer einzelnen Scheibe ohne hohe Zusatzkosten in der Herstellung zu erhöhen.
In der letzten Zeit etwa gab es nennenswerte Verbesserungen bei der Speicherdichte und Erhöhungen bei der Anzahl der Magnetscheiben, die in ein Standard-3.5-Zoll-Formfaktor-Gehäuse passen. Mit diesen beiden Faktoren erreichen NAS-Festplatten heute Kapazitäten von 8 TB. Und weil weiterhin in der Forschung und Entwicklung speziell an der Erhöhung der Speicherdichte und der Anzahl der Magnetscheiben pro Festplatte gearbeitet wird, werden auch in Zukunft weiter fallende Preise pro Kapazitätseinheit und Festplatten mit immer höheren Kapazitäten im Markt zu beobachten sein.
Im nächsten Schritt könnten Festplatten, die statt mit Luft mit Helium gefüllt sind und aktuell schon im Server-Umfeld verwendet werden, den Einzug in die NAS-Anwendungen halten. Durch die Heliumfüllung werden die Turbulenzen beim Rotieren der Scheiben reduziert; dadurch können dünnere sowie mehr Platten im gleichen Gehäuse verwendet werden. Nicht zuletzt arbeiten Hersteller auch an einigen neuartigen Aufzeichnungstechnologien, die NAS-Festplatten bis zu 40 TB und sogar darüber hinaus ermöglichen werden.   
*Rainer Kaese ist Senior Manager Business Development Storage Products bei Toshiba Electronics Europe.

Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*