Mit Storage zum Datacenter mit Autopilot

Das Software-defined Datacenter-Modell weist den Weg zu einer deutlich agileren IT und schnelleren Service-Bereitstellung für Applikationsverantwortliche und Entwicklungsteams. Welche Rolle Storage auf der Reise zum Rechenzentrum der Zukunft spielt. [...]

Geht es nach der Automobilindustrie, fahren Autos künftig selbstständig. Statt eines Fahrers lenkt eine Software gemäß Verkehrsfluss und Straßenverkehrsordnung. Was für Konsumenten – noch – eine Zukunftsvision ist, ist in den Rechenzentren von Unternehmen schon Realität: Software definiert und steuert Prozesse und bald ganze Datacenter. Das Software-defined Datacenter (SDDC) wird das Selbstverständnis der IT in Unternehmen verändern. Dabei ist die Umstellung auf ein SDDC-Modell einfacher als gedacht und beginnt beim Storage, natürlich auch Software-definiert.

Damit aus einem herkömmlichen Datacenter ein automatisiertes, regelgesteuertes und applikationsgetriebenes Service Center wird, müssen Server, Netzwerk, Storage und Security virtualisiert werden. Virtualisierung entkoppelt die Funktionalitäten vom „Blech“, sprich von der Hardware und definiert sie in Form von Software. Statt Hardware-Komponenten zu kombinieren, werden sie als virtualisierte Funktionalitäten eines Service bereitgestellt – und das bedeutet: schneller, einfacher, flexibler, sicherer und kostengünstiger. Eine komplette virtuelle Infrastruktur kann dann wie eine neue App in einem Shop ausgesucht, abgerufen und verwendet werden.
SDDC ist die logische Weiterentwicklung bestehender Virtualisierungs- und Cloud-Ansätze hin zur Virtualisierung ganzer Datacenter. Treiber dieser Entwicklung ist die wachsende Geschwindigkeit, mit der die IT auf geschäftliche Anforderungen reagieren muss. Wer mit dedizierten Infrastrukturen für Applikationen arbeitet, hat meist nur wenig Handlungsspielraum und sieht sich oft endlos erscheinenden Kostenspiralen gegenüber. IT-Ausfälle verzögern Projekte, mangelnde Performance bremst die Produktivität, während wachsende Umgebungen an Komplexität zunehmen.

Das SDDC-Modell weist den Weg zu einer deutlich agileren IT und schnelleren Service-Bereitstellung für Applikationsverantwortliche und Entwicklungsteams. Voraussetzung ist eine Infrastruktur, die selbst hochagil ist, ständig liefern kann und nebenbei noch die Kosten senkt. Ein wesentlicher Bestandteil dieser Infrastruktur ist der Storage. Datenwachstum und Servervirtualisierung ließen Datenspeicher zur zentralen Größe im Datacenter werden. Applikationsdaten und virtuelle Maschinen diktieren ein Verfügbarkeits- und Sicherheitsniveau, das nur durch Storage-Virtualisierung erreicht und aufrecht erhalten werden kann. Das beginnt bei Multiprotokollfähigkeit für Block- und File-Formate und einem von Bits & Bytes losgelösten Volume Management und endet bei einer Clustertechnologie, die mühelos immer mehr Systeme einbeziehen kann und auch Storage-Effizienz und Datensicherung integriert.

SOFTWARE-DEFINED STORAGE
Software-definined Storage (SDS) ist eine der vier Säulen eines SDDC und fasst Storage Hardware und Datenmanagement in einem Pool zusammen und definiert diesen ebenfalls über Software. Dadurch lassen sich Storage-Dienste regelbasiert bereitstellen und mittels offener Schnittstellen direkt aus der Applikationswelt heraus konsumieren.

Dass SDS (und auch SDDC) keine Zukunftsvision, sondern bereits Realität ist, zeigt NetApp mit seinem Storage-Betriebssystem clustered Data ONTAP. Der Name ist Programm: Im Mittelpunkt steht eine linear ausbaufähige (scale-out) Clustertechnologie, die Storage-Virtualisierung auf ein neues Niveau bringt und zu virtualisierten Storage Services raffiniert. Dazu wird das Prinzip der Servervirtualisierung auf Storage angewandt. Kern der Clustertechnologie sind virtualisierte Storage Controller, so genannte Storage Virtual Machines (SVMs), die jeden Zugriff auf Daten oder Services seitens der Endanwender oder Server Hosts entkoppelt von der Hardware steuern. Anders als bei Servern sind Storage-Funktionen für eine Hardware entwickelt und daran gebunden. Was sich so einfach anhört – das Entkoppeln dieser Beziehung plus die Erweiterung um immer mehr Systeme plus Wahrung der Konsistenz in einem virtualisierten Ressourcenpool – ist alles andere als trivial und gilt in der Storage-Industrie als echte Revolution und Meilenstein der Storage-Agilität.

Der Kunstgriff der SVM ermöglicht virtualisierte Storage Services, die sich grundsätzlich nach den Kriterien Performance, Kapazität, Verfügbarkeit und Kosten gestalten, als Service Level Agreements festschreiben sowie regelbasiert und automatisiert umsetzen lassen. Für die granulare und vielfältige Ausgestaltung sorgen Effizienztools, Protokolle, Mandantenfähigkeit, Datenmobilität, Hardwareoptionen und eine kontrollierte Servicequalität.

Die Vorteile des SVM-Ansatzes liegen auf der Hand: ein unterbrechungsfreier Betrieb, hohe Effizienz und nahtlose Skalierbarkeit bei regelgesteuerter Zuweisung von Ressourcen ganz im Sinne von SDS. SVMs können die Storage-Ressourcen eines oder aller der aktuell unterstützten 24 Controller beanspruchen und sind jederzeit applikationsneutral rekonfigurierbar. Eine besonders komfortable Option ist das rollenbasierte Management der SVMs. Es lässt sich zum Beispiel an Applikationen, Gruppen und selbst an den Endanwender delegieren, wobei die rein Storage-bezogene Administration bei der IT bleibt.

VIELFÄLTIGE PLATTFORMEN
Bei aller Virtualisierung geht natürlich nichts ohne Hardware. Damit das SDS-Modell hält, was es verspricht, muss ein breites Spektrum an Plattformen mit standardisierten Storage Services und programmierbaren Schnittstellen für den Zugriff unterstützt werden. Kunden haben so eine große Auswahl an Optionen und können unterschiedlichen Budgetrahmen und Einsatzbereichen gerecht werden. Idealerweise ist die Storage-Virtualisierung in der Lage, die verschiedensten Plattformen virtuell zu bündeln und deren Funktionalitäten als Services bereitzustellen. Das bedeutet aber auch, dass jeder Service nur so gut sein kann, wie es die Funktionalitäten der Storage-Plattform und ihres Betriebssystems sind.

Damit Software-defined Storage seinen Beitrag zum Software-definierten Datacenter leisten kann, müssen die Applikationen direkten Zugriff auf die Storage Services haben. Realisiert wird dies entweder über bestehende Integrationen mit anderen Technologien oder durch offene Schnittstellen für buchstäblich jede beliebige Befehlszeile. Ihre Standardisierung hilft, Verknüpfungen mit Applikationen und Prozessen schnell und einfach herstellen zu können – und unterstützt ein wesentliches Merkmal des Software-definierten Datacenter: die Automatisierung.

* Der Autor Ewald Glöckl ist Director NetApp Austria.


Mehr Artikel

News

Jahrelanges Katz-und-Maus-Spiel zwischen Hackern und Verteidigern

Sophos hat den umfangreichen Forschungsbericht „Pacific Rim“ veröffentlicht, der detailliert ein jahrelanges Katz-und-Maus-Spiel aus Angriffs- und Verteidigungsoperationen mit mehreren staatlich unterstützten Cybercrime-Gruppierungen aus China beschreibt. Im Lauf der Auseinandersetzung entdeckte Sophos ein riesiges, gegnerisches Cybercrime-Ökosystem. […]

News

Salesforce kündigt autonome KI-Agenten an

Agentforce soll es Unternehmen ermöglichen, autonome KI-Agenten für zahlreiche Unternehmensfunktionen zu entwickeln und einzusetzen. So bearbeitet Agentforce beispielsweise selbstständig Kundenanliegen, qualifiziert Vertriebsleads und optimiert Marketingkampagnen. […]

News

Startschuss für neues Studium „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln

Mit einem fortschrittlichen Konzept und praxisnaher Ausrichtung ist der neue Bachelor-Studiengang „Softwaretechnik & Digitaler Systembau“ am Biotech Campus Tulln der Fachhochschule Wiener Neustadt erfolgreich gestartet. Unter der Leitung von Dominik Hölbling erwartet die Studierenden eine Ausbildung mit Schwerpunkt auf moderne Softwaretechnologien und innovative Digitalisierungslösungen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*