Block- und Filespeicher waren zu ihrer Zeit revolutionär. Heute können diese Technologien jedoch nicht mit den Bedürfnissen von Unternehmen mithalten, die in Virtualisierung und Cloud investieren. [...]
Mehr als zwanzig Jahre lang basierte konventioneller Speicher auf Block- oder File-Speicher. Die Speicherwelt war recht einfach und da beide Technologien in der Lage waren Unternehmensapplikationen zu unterstützen, teilte sich der Speichermarkt überschaubar in zwei überlappende Lager auf. Jeweils abhängig vom Anwendungsfall und der Kapazität konnten SAN-, NAS- und DAS-Segmente von einer Vielzahl von Herstellern mit ähnlichen Speichersystemen bedient werden.
Block-Speicher definierte die erste Ära des Speichers seit den frühen neunziger Jahren. Firmen wie EMC verkauften in dieser Ära auch physisch tatsächlich sehr große Speicherkisten, die die noch recht überschaubare Speichermenge einer jeden Firma zu jener Zeit gut verwalten konnte. Um die Jahrtausendwende verlangte die digitale Transformation und die damit eingehend wachsende Datenmenge nach einem einfacheren Speicher, der vor allem Dateien speichern konnte. Dies war der Beginn der zweiten Ära des Speichers: File-Speicher, seit seiner Einführung auch einfach oft nur „Filer“ genannt. File-Speicher half dabei, hierarchische Daten sehr einfach zu speichern. Nichts deutete auf den Beginn ein neues Zeitalter in der Speichertechnologie hin.
Doch dann kam Virtualisierung und krempelte die gesamte IT-Industrie grundlegend um. Auch die Speicherindustrie blieb nicht verschont: Virtualisierung trennte Speicher von physischen Workloads und stellte die früheren Speichertechnologien vor massive Herausforderungen, die offenbar nur durch einen komplett neuen Speicheransatz lösbar sind. In die Reihe SAN, NAS und DAS reiht sich nun ein weiterer Begriff ein: VAS (VM-Aware Storage, VM-zentrischer Speicher), der nach Block und File nun die dritte Ära des Speichers einläuten könnte: Die Ära des VM-zentrischen Speichers.
KONVENTIONELLER SPEICHER – FÜR VIRTUALISIERUNG UNGEEIGNET
Die Geschichte von Datenspeichern für Unternehmen reicht Jahrzehnte zurück. Es gab große Speicherlösungen schon für Mainframes lange bevor das PC-Zeitalter für ein exponentielles Datenwachstum sorgte. Der erste Fokus bestand aus DAS (Direkt Attached Storage), die entweder an Server oder PCs angeschlossen waren. Über die Zeit versuchten Organisationen ihre Speicherressourcen mehr und mehr an das gesamte Netzwerk zu liefern, was in NAS- und SAN-Ansätzen resultierte. Konventioneller Speicher, ob direkt oder vernetzt, hat Speicher für Jahrzehnte definiert und würde dies wohl auch noch für viele weitere Jahre tun, wenn nicht infolge Virtualisierung und Cloud die Karten neu gemischt worden wären. In einem modernen Rechenzentrum sind heute jedoch bereits ungefähr 75 Prozent aller Workloads virtualisiert – Tendenz steigend. Ältere Speichertechnologien, die für eine physische Welt entwickelt wurden, eignen sich für Virtualisierung hingegen weniger.
Die beiden heutzutage größten Probleme bei der Speicherung von immer mehr Daten sind Performance und komplexe Verwaltung, wobei Admins vor allem Random I/Os zu schaffen machen, wie sie vermehrt in virtualisierten Umgebungen vorkommen. Virtuelle Umgebungen generieren eben weitaus mehr Random I/Os als physische und bremsen den Speicher damit aus. Server können nun einmal mehrere Tausend VMs unterstützen, jede einzelne davon mit ihrem eigenen I/O-Stream. Konventioneller Speicher kann da einfach nicht mithalten.
Be the first to comment