Block oder File war gestern: Ära des VM-zentrischen Storage hat begonnen

Block- und Filespeicher waren zu ihrer Zeit revolutionär. Heute können diese Technologien jedoch nicht mit den Bedürfnissen von Unternehmen mithalten, die in Virtualisierung und Cloud investieren. [...]

Mehr als zwanzig Jahre lang basierte konventioneller Speicher auf Block- oder File-Speicher. Die Speicherwelt war recht einfach und da beide Technologien in der Lage waren Unternehmensapplikationen zu unterstützen, teilte sich der Speichermarkt überschaubar in zwei überlappende Lager auf. Jeweils abhängig vom Anwendungsfall und der Kapazität konnten SAN-, NAS- und DAS-Segmente von einer Vielzahl von Herstellern mit ähnlichen Speichersystemen bedient werden.

Block-Speicher definierte die erste Ära des Speichers seit den frühen neunziger Jahren. Firmen wie EMC verkauften in dieser Ära auch physisch tatsächlich sehr große Speicherkisten, die die noch recht überschaubare Speichermenge einer jeden Firma zu jener Zeit gut verwalten konnte. Um die Jahrtausendwende verlangte die digitale Transformation und die damit eingehend wachsende Datenmenge nach einem einfacheren Speicher, der vor allem Dateien speichern konnte. Dies war der Beginn der zweiten Ära des Speichers: File-Speicher, seit seiner Einführung auch einfach oft nur „Filer“ genannt. File-Speicher half dabei, hierarchische Daten sehr einfach zu speichern. Nichts deutete auf den Beginn ein neues Zeitalter in der Speichertechnologie hin.

Doch dann kam Virtualisierung und krempelte die gesamte IT-Industrie grundlegend um. Auch die Speicherindustrie blieb nicht verschont: Virtualisierung trennte Speicher von physischen Workloads und stellte die früheren Speichertechnologien vor massive Herausforderungen, die offenbar nur durch einen komplett neuen Speicheransatz lösbar sind. In die Reihe SAN, NAS und DAS reiht sich nun ein weiterer Begriff ein: VAS (VM-Aware Storage, VM-zentrischer Speicher), der nach Block und File nun die dritte Ära des Speichers einläuten könnte: Die Ära des VM-zentrischen Speichers.

KONVENTIONELLER SPEICHER – FÜR VIRTUALISIERUNG UNGEEIGNET

Die Geschichte von Datenspeichern für Unternehmen reicht Jahrzehnte zurück. Es gab große Speicherlösungen schon für Mainframes lange bevor das PC-Zeitalter für ein exponentielles Datenwachstum sorgte. Der erste Fokus bestand aus DAS (Direkt Attached Storage), die entweder an Server oder PCs angeschlossen waren. Über die Zeit versuchten Organisationen ihre Speicherressourcen mehr und mehr an das gesamte Netzwerk zu liefern, was in NAS- und SAN-Ansätzen resultierte. Konventioneller Speicher, ob direkt oder vernetzt, hat Speicher für Jahrzehnte definiert und würde dies wohl auch noch für viele weitere Jahre tun, wenn nicht infolge Virtualisierung und Cloud die Karten neu gemischt worden wären. In einem modernen Rechenzentrum sind heute jedoch bereits ungefähr 75 Prozent aller Workloads virtualisiert – Tendenz steigend. Ältere Speichertechnologien, die für eine physische Welt entwickelt wurden, eignen sich für Virtualisierung hingegen weniger.

Die beiden heutzutage größten Probleme bei der Speicherung von immer mehr Daten sind Performance und komplexe Verwaltung, wobei Admins vor allem Random I/Os zu schaffen machen, wie sie vermehrt in virtualisierten Umgebungen vorkommen. Virtuelle Umgebungen generieren eben weitaus mehr Random I/Os als physische und bremsen den Speicher damit aus. Server können nun einmal mehrere Tausend VMs unterstützen, jede einzelne davon mit ihrem eigenen I/O-Stream. Konventioneller Speicher kann da einfach nicht mithalten.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*