Festplatten für NAS-Systeme: Kostenoptimierte Qualität für den Dauerbetrieb

Das Datenvolumen wächst weiterhin ungebremst, und im gleichen Maß steigt die Nachfrage nach kosteneffizienten Storage-Lösungen. Eine entscheidende Rolle nehmen dabei NAS-Systeme ein. Sie benötigen allerdings spezielle Festplatten, um den notwendigen Dauerbetrieb bei gleichzeitiger Kosteneffizienz sicherzustellen. [...]

Rainer Kaese
Rainer Kaese
Immer mehr Daten werden in der Cloud gespeichert. Folglich drängt sich die Frage auf, ob überhaupt noch ein Bedarf an lokaler Datenspeicherung besteht, gerade auch im Hinblick auf Network-Attached-Storage (NAS)-Systeme. Es ist zwar richtig, dass in der Cloud ein maßgeblicher Teil der weltweit stetig wachsenden Datenmenge gespeichert wird. Es wird aber auch immer Szenarien geben, in denen Daten lokal gespeichert werden, etwa bei der Implementierung für gemeinsam genutzte Speichervolumen für kleine Arbeitsgruppen oder bei der Umsetzung einer Backup-Strategie. Hier sind NAS-Systeme eine ideale performance- und kostenoptimierte Lösung. 
Darüber hinaus verfügen heutige High-End-NAS-Modelle über viele Funktionen, die es bisher nur in teuren Enterprise-Storage-Servern mit Fibre-Channel-Anschluss gab, zum Beispiel: Snapshot, Failover, Datenkompression oder Daten-Deduplizierung. Mit solchen lokalen NAS-Systemen können Unternehmen den wachsenden Speicherbedarf wesentlich kostengünstiger abdecken.
Festplattenhersteller bieten adäquate Modelle
Zweifellos besteht also, Cloudspeicher hin oder her, ein großer Bedarf an NAS-Systemen, den die Festplattenhersteller mit der Entwicklung spezieller, auf die spezifischen Anforderungen zugeschnittener Festplattenmodelle aufgegriffen haben. Bei diesen Modellen kommt es darauf an, große Datenmengen rund um die Uhr zuverlässig zu speichern und verfügbar zu halten.
NAS-HDDs unterscheiden sich in ihren Spezifikationen in einigen Punkten von herkömmlichen Festplatten für Desktop-PCs oder Server. Sie werden speziell für lange Laufzeiten und hohe Zuverlässigkeit entwickelt und getestet, das heißt, sie sind für den Dauereinsatz konzipiert – 24 Stunden am Tag, sieben Tage die Woche und 365 Tage im Jahr (24/7/365 oder 24/7). Diese Form des Dauerbetriebs ist bei herkömmlichen internen Festplatten, die man üblicherweise in Notebooks und PCs findet, nicht vorgesehen; die Betriebsdauer von Client-Laufwerken fällt deshalb mit 8 oder 16 Stunden pro Tag geringer aus.
Wie NAS-Festplatten sind auch die Modelle für Server für den Dauerbetrieb in Systemen mit vielen eng zusammen verbauten Platten konzipiert. Der entscheidende Unterschied ist die zulässige Belastung durch den Datenzugriff: Server-Festplatten sind für konstant hohe Datenmengen, wie sie in Systemen mit vielen Benutzern und Prozessen oder für Datenbankanwendungen auftreten, geeignet, spezifiziert und qualifiziert. NAS-HDDs hingegen wurden für weniger anspruchsvolle Lasten entwickelt, wie sie zum Beispiel in zentralen Netzwerkspeichern auftreten. Somit positionieren sich die NAS-Festplatten genau zwischen den Enterprise-Server-Platten und den Arbeitsplatzrechner-HDDs – sowohl im Hinblick auf Lebensdauer und Zuverlässigkeit als auch hinsichtlich des Preises.
Die NAS-Zukunft bleibt Festplatten-dominiert
Dass NAS-Systeme eine Berechtigung haben, steht außer Frage. Doch in welche Richtung geht die Entwicklung, gerade auch hinsichtlich des anbrechenden Solid-State-Drive (SSD)-Zeitalters? Die Preise von SSDs sind beträchtlich gefallen, und in der Tat verwenden heute viele High-End-NAS-Systeme bereits SSDs als Cache. SSDs bieten einen immensen Vorteil in Sachen Geschwindigkeit, aber wenn es lediglich um die Speicherung von großen Datenmengen bei niedrigen Kosten pro Kapazitätseinheit geht, haben rotierende Magnetscheiben immer noch die Nase vorn, und zwar eindeutig.
Der Grund ist technologisch bedingt: Vereinfacht gesagt werden SSDs aus Halbleiterspeicherzellen aufgebaut, wobei jede Zelle einen eigenen Transistor zum Lesen und Schreiben hat und mit individueller Verdrahtung ausgestattet werden muss. Trotz der immer kleineren Strukturen und der dreidimensionalen Anordnung der Zellen muss zum Verdoppeln der Speicherkapazität die Anzahl der Transistoren, Speicherelemente und Verdrahtungen verdoppelt werden; die Konsequenz ist eine näherungsweise lineare Erhöhung der Kosten mit der Kapazität. Bei Festplatten hingegen gibt es Methoden, um die Datendichte auf einer einzelnen Scheibe ohne hohe Zusatzkosten in der Herstellung zu erhöhen.
In der letzten Zeit etwa gab es nennenswerte Verbesserungen bei der Speicherdichte und Erhöhungen bei der Anzahl der Magnetscheiben, die in ein Standard-3.5-Zoll-Formfaktor-Gehäuse passen. Mit diesen beiden Faktoren erreichen NAS-Festplatten heute Kapazitäten von 8 TB. Und weil weiterhin in der Forschung und Entwicklung speziell an der Erhöhung der Speicherdichte und der Anzahl der Magnetscheiben pro Festplatte gearbeitet wird, werden auch in Zukunft weiter fallende Preise pro Kapazitätseinheit und Festplatten mit immer höheren Kapazitäten im Markt zu beobachten sein.
Im nächsten Schritt könnten Festplatten, die statt mit Luft mit Helium gefüllt sind und aktuell schon im Server-Umfeld verwendet werden, den Einzug in die NAS-Anwendungen halten. Durch die Heliumfüllung werden die Turbulenzen beim Rotieren der Scheiben reduziert; dadurch können dünnere sowie mehr Platten im gleichen Gehäuse verwendet werden. Nicht zuletzt arbeiten Hersteller auch an einigen neuartigen Aufzeichnungstechnologien, die NAS-Festplatten bis zu 40 TB und sogar darüber hinaus ermöglichen werden.   
*Rainer Kaese ist Senior Manager Business Development Storage Products bei Toshiba Electronics Europe.

Mehr Artikel

News

Jahrelanges Katz-und-Maus-Spiel zwischen Hackern und Verteidigern

Sophos hat den umfangreichen Forschungsbericht „Pacific Rim“ veröffentlicht, der detailliert ein jahrelanges Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit mehreren staatlich unterstützten Cybercrime-Gruppierungen aus China beschreibt. Im Lauf der Auseinandersetzung entdeckte Sophos ein riesiges, gegnerisches Cybercrime-Ökosystem. […]

News

Salesforce kündigt autonome KI-Agenten an

Agentforce soll es Unternehmen ermöglichen, autonome KI-Agenten für zahlreiche Unternehmensfunktionen zu entwickeln und einzusetzen. So bearbeitet Agentforce beispielsweise selbstständig Kundenanliegen, qualifiziert Vertriebsleads und optimiert Marketingkampagnen. […]

News

Startschuss für neues Studium „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln

Mit einem fortschrittlichen Konzept und praxisnaher Ausrichtung ist der neue Bachelor-Studiengang „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln der Fachhochschule Wiener Neustadt erfolgreich gestartet. Unter der Leitung von Dominik Hölbling erwartet die Studierenden eine Ausbildung mit Schwerpunkt auf moderne Softwaretechnologien und innovative Digitalisierungslösungen. […]

News

Von Views zu Likes: Tipps, um die Zuschauer-Interaktion auf YouTube zu steigern

Bei YouTube ist die Zuschauerinteraktion ein entscheidendes Element für den Erfolg eines Kanals. Besonders im Jahr 2024 wird deutlich, dass Likes, Kommentare und Shares nicht nur für die Sichtbarkeit wichtig sind, sondern auch eine Schlüsselrolle im Algorithmus von YouTube spielen. Eine hohe Zuschauerbindung ist für Kanäle essenziell, um deren Inhalte optimal zu promoten. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*