Wie Storage-Projekte gelingen

Die Virtualisierung von Speicher-Ressourcen ist in vielen Unternehmen gesetzt. Doch auf dem Weg zum erfolgreichen Storage-Projekt lauern Fallen. [...]

„Durch die Virtualisierung der Server sind die Speicher zum nächsten Engpass geworden“, berichtet Donna Taylor, Research Director für den Bereich European Storage beim Marktforschungsunternehmen IDC. „Hier musste etwas passieren.“ Deshalb begannen viele IT-Abteilungen Anfang des Jahrtausends, Speichersysteme gezielt zu konsolidieren. Vielfach ging damit auch eine Virtualisierung einher – geräteintern, auf dem Host oder mit Hilfe separater Software, die als zusätzliche Schicht zwischen Speichersystemen und Servern liegt.
Systeme, die intern virtualisieren, sind heute Legion. Das fängt mit Hewlett-Packards EVA an und endet mit nahezu jedem aktuellen und professionellen Midrange- oder Highend-Array für Unternehmenszwecke. Ein Beispiel für das zweitgenannte Konzept, die Host-gestützte Virtualisierung, liefert die Veritas Foundation Suite. Das dritte Modell, die Virtualisierung mittels separater Software, verfolgen beispielsweise Datacore, Falconstor oder auch IBM mit seinem Storage Virtual Controller (SVC)
Rund 60 bis 70 Prozent der Storage-Infrastrukturen, so schätzt Wolfgang Schwab vom Beratungsunternehmen Experton, sind heute virtualisiert. Etwa 80 Prozent der Virtualisierungsprojekte gelängen den Verantwortlichen. Damit ein Virtualisierungsprojekt nicht zu einem der 20 Prozent Problemfälle wird, sollten Unternehmen mit realistischen Erwartungen herangehen und einige Regeln beachten, die wir auf den nächsten Seiten beschreiben.
Klären Sie im Vorfeld den Zweck des Virtualisierungsprojekts!
Was genau soll das Projekt eigentlich leisten? Geht es darum, dass die vorhandenen Speichersysteme zu wenig ausgelastet sind? Sind die alten Systeme kaum skalierbar? Gibt es eine heterogene Systemlandschaft, auf die über einen Punkt zugegriffen werden soll? Machen vor allem die Migrationen von Daten Probleme oder wünschen sich die Storage-Spezialisten ganz allgemein mehr Entlastung durch die Automatisierung von Routineaufgaben? Geht es vor allem um Hochverfügbarkeit? Soll die Virtualisierung die Übergangsstufe in eine Cloud-Umgebung sein? All dies kann beeinflussen, welche Storage-Virtualisierungslösung in einem spezifischen Fall die beste ist. Hilfreich kann es daher auch sein, vor der Durchführung eines Storage-Virtualisierungsprojekts einen Workshop durchzuführen, in dem – vielleicht schon zusammen mit einem Partner – Ziele, Zeit- und Budgetrahmen geklärt werden. So macht es beispielsweise der Storage-Distributor TIM zusammen mit seinen Partnern aus dem Handel, wenn ein Endkunde ein System für die Storage-Virtualisierung plant. „Die Projekte werden mit den Endkunden in Workshops erarbeitet“, berichtet Alfred Beblik, bei TIM für die Projektentwicklung zuständig.
Achten Sie auf ein passendes Budget!
Sorgen Sie dafür, dass auch ein Budget für die gewünschte Virtualisierungslösung einschließlich eventuell benötigter Managementwerkzeuge vorhanden ist. Denn gerade an diesem Punkt wird oft gespart. „Storage-Ressource-Management-Software wird als Produkt einfach nicht angenommen, obwohl man es braucht“, beobachtet Valdis Filks, Experte für IT-Infrastruktur bei Gartner. Dabei benötigten Unternehmen trotz Virtualisierung ein funktionierendes Ressourcenmanagement und natürlich auch jemanden, der damit umgehen kann – schon allein, um genau zu sehen, was auf einer Implementierung gerade vor sich geht. IDC-Analystin Taylor betont, wie wichtig es in Hinblick auf die Budgetierung sei, die Frage der Organisation respektive ihres Umbaus mit zu bedenken. Schließlich müssten Kosten sauber verrechnet werden, „und das funktioniert in Organisationen, die sehr stark in Silos konstruiert sind, schlecht.“ Um optimale Ergebnisse zu erzielen, muss also neben dem eigentlichen Projekt möglicherweise eine interne Umstrukturierung parallel laufen oder sogar vorgeschaltet werden.
Überschätzen Sie die Entlastung durch Storage-Virtualisierung nicht!
Die Entlastung der Mitarbeiter von Managementaufgaben sollten Projektverantwortlichen nicht überschätzen. Konkret: Experten warnen einhellig davor, das Ausmaß, in dem sich die Arbeit der Storage-Spezialisten durch eine Storage-Virtualisierung vermindert, zu hoch anzusetzen. „Die Leute brauchen auf jeden Fall Know-how, denn sonst werden auch virtualisierte Systeme falsch konfiguriert“, sagt etwa TIM-Manager Beblik. Das führe dann zu teuren Serviceeinsätzen von Partnern, die natürlich im Budget nicht vorgesehen sind. Meist sei deswegen das System zwar nicht kaputt, und auch Daten gingen nicht automatisch verloren. Doch „im Zweifel funktioniert die gewünschte Hochverfügbarkeit bei unsauberer Konfiguration dann eben nicht.“ Die Notwendigkeit, auch über eine virtualisierte Storage-Umgebung ausreichend Know-how zu besitzen, betont auch Gartner-Manager Filks: „Das funktioniert nur dann, wenn der Spezialist weiß, welche Anwendungen welche Daten verwenden und wie schnell auf wie viele Daten zugegriffen werden muss. Virtualisierung verringert den Arbeitsaufwand für Storage-Systeme deswegen vielleicht um die Hälfte, aber nicht um 100 Prozent.“ Auch Taylor von IDC betont: „Management kostet nun mal Geld, das ändert sich auch mit Virtualisierung nicht. Man muss immer noch teure Experten möglichst für werthaltige Aktivitäten einsetzen.“ Und schließlich, so Filks, müssten selbst bestimmte rein handwerkliche Fähigkeiten auch in einer virtualisierten Umgebung vorgehalten werden: „Es muss immer noch jemanden geben, der eine Disk aus einer Raid-Gruppe entfernen kann, ohne das System zum Zusammenbruch oder Daten zum Verschwinden zu bringen.“
Stellen Sie die Unterstützung des Managements sicher!
Sorgen Sie in jedem Fall dafür, dass das Management auf den höheren Ebenen das Projekt unterstützt. Das gilt besonders dann, wenn die Storage-Virtualisierung nicht nur die einfache technische Administration erleichtern soll, sondern als Vorarbeit zu einer Cloud-Implementierung gesehen wird. Eine solche wird in der Regel zumindest vom IT-Management langfristig geplant und mit dem Top-Management umgesetzt werden. Denn wegen der großen damit verbundenen Umstellungen für die IT-Mitarbeiter, die teilweise alte Verantwortungsbereiche verlieren, aber auch neue bekommen, muss sich der IT-Manager der Unterstützung von ganz oben sicher sein. Schließlich kann es manchmal erforderlich sein, dem „Erbhofdenken“ derjenigen, die früher Storage-Kapazitäten händisch oder halb automatisiert verteilen durften oder mussten, durch ein hierarchisch abgesichertes Machtwort entgegenzutreten.
Vermessen Sie die aktuelle Storage-Infrastruktur!
Im Vorfeld der Detailplanung sollten Sie die vorhandene Infrastruktur vermessen und evaluieren. „Wer die Anforderungen nicht richtig ausmisst und definiert, darf sich über eine schwache Performance nicht wundern“, sagt Experton-Berater Schwab dazu. So gilt es, den Datenanfall der einzelnen Applikationen genau zu bestimmen, am besten in Byte pro Zeiteinheit. Außerdem muss man das zu erwartende Datenwachstum einbeziehen. Nur so kommt es am Ende zu einer relevanten Einschätzung darüber, welche Bandbreite erforderlich ist, um die Anwendung mit einer für die Benutzer akzeptablen Antwortzeit zu betreiben. Und nur so lässt sich abschätzen, wie skalierbar eine Virtualisierungslösung am Ende sein muss. Auch in absehbarer Zukunft geplante neue Applikationen und deren Datenwachstum sollten in die Kalkulation mit einbezogen werden. Ein häufiger Fehler besteht nämlich laut TIM-Manager Beblik darin, Systeme von vornherein zu klein zu dimensionieren – entweder hinsichtlich der Leistung oder in Sachen Kapazität. Beispielsweise werde gern der Platz für einen geplanten Spiegel, also die Datenredundanz, vergessen.
Verhindern Sie Fingerpointing im Fehlerfall!
Auf einen weiteren Grund für die Integration ausreichenden Mess-Equipments in die vorhandene oder geplante Storage-Virtualisierungs-Installation weist Gartner-Mann Filks hin: „Wenn irgendwo in der Infrastruktur etwas zu langsam geht, eine Applikation beispielsweise nicht wie gewünscht reagiert, dann heißt es schnell, dass der Storage schuld ist“. Doch das sei sehr oft gar nicht der Fall. Um dies aber nachweisen zu können, brauche man Messinstrumente, die dann zeigen könnten, dass der Speicher funktioniert. Wenn die IT-Abteilung aber gar nicht wisse, welche Anwendungen gerade welche Storage-Ressourcen nutzen, werde es schnell schwierig. Und wenn dann noch Misstrauen gegen eine neue Technologie zu überwinden sei, falle der Reiz, Probleme auf ihr abzuladen, naturgemäß besonders groß aus. Deshalb bräuchten Unternehmen trotz Virtualisierung ein funktionierendes Ressourcen-Management und natürlich auch jemanden, der damit umgehen kann.
Prüfen Sie, ob Storage-Altsysteme noch passen!
IT-Verantwortliche sollten genau prüfen, ob sich vorhandene Altsysteme tatsächlich noch sinnvoll in eine neue virtualisierte Storage-Umgebung übernehmen lassen. Denn ein Altsystem kann, wenn es die eigentlich gewünschten Leistungen nicht bringt, schnell zum Hemmnis werden, das die neue Umgebung ausbremst. Ein flexibler Umgang mit solchen Systemen ist also nötig. Beblik: „Nur was wirklich passt, kann bleiben!“ Ausnahmen von dieser Regel könnten beispielsweise in Unternehmen mit exorbitanten Datenmassen gelten, die sich derartige Flexibilität einfach aus Volumengründen kaum leisten könnten. Und natürlich lassen sich funktionsfähige, aber nicht mehr ausreichend leistungsstarke Altsysteme auch außerhalb der Virtualisierungsinstallation für Nebenzwecke verwenden.
Vergessen Sie die Sicherheit nicht!
Im Zuge von Virtualisierungsprojekten ergeben sich hinsichtlich der Storage-Sicherheit neue Herausforderungen, betont Taylor. „Früher waren die Daten durch die Siloarchitektur getrennt, in virtuellen Umgebungen sind sie in der Regel auf einer Hardware und deswegen auch prinzipiell für mehr Menschen zugänglich.“ Sicherheit müsse daher anders implementiert werden, weil man nicht mehr wie früher Zugangspunkte einfach isolieren könne. „In virtualisierten Umgebungen muss man intern über Protokollmechanismen sichern“, rät Taylor. Besonders gelte das dort, wo Daten sensibel sind, wie etwa im Gesundheitswesen. Kombiniert man eine virtualisierte Storage-Umgebung intern mit einer Public Cloud, ist genau darauf zu achten, welche Daten wohin gehören. Schon im Vorfeld sollten die Verantwortlichen gründlich darüber nachdenken, welche Daten unter welchen Umständen wohin geschoben werden – allein schon, um keine Datenschutzrechte zu verletzen.
Gehen Sie bei Problemen schrittweise vor!
Zeitigt ein Storage-Virtualisierungsprojekt trotz guter Vorbereitung nicht die gewünschten Erfolge, gilt es Ruhe zu bewahren und Schritt für Schritt nach Lösungen zu suchen. Häufig liegen der unbefriedigenden Funktion von Virtualisierungslösungen einfache Konfigurationsfehler zugrunde. Manchmal geht es nur um das richtige Setzen einiger Bits, um das gewünschte Umschwenken eines defekten Systems auf die Ersatz-Hardware auszulösen. Nicht selten liegen unerwartet schlechte Reaktionszeiten und andere Probleme daran, dass im Zusammenspiel der diversen Speicherschichten eines virtualisierten Storage-Systems die schnellste Schicht falsch dimensioniert ist. „Ein sehr häufiger Fehler besteht darin, gerade Tier 1 zu klein zu dimensionieren, weil die Speichermedien am teuersten sind“, erklärt Schwab. Dieser Fehler lässt sich durch Nachdimensionierung schnell beheben. Zu langsame Altsysteme müssen durch neue ersetzt werden, die den erhöhten Anforderungen auch entsprechen. Erst wenn gar nichts mehr hilft, kann es im Extremfall notwendig sein, die gesamte Lösung noch einmal neu zu konzipieren. Doch derart kostspielige Fehler lassen sich durch Sorgfalt beim Einstieg verhindern.
Vermeiden Sie Herstellerabhängigkeit!
Virtualisierungslösungen, die nicht an eine bestimmte Storage-Hardware gebunden sind, werben damit, dass sie den Anwender von einer allzu engen Herstellerbindung hinsichtlich der benötigten Hardware befreien. Doch das hilft wenig, wenn Kunden statt vom Hardwarelieferanten dann vom Anbieter der Software-Virtualisierungslösung abhängig sind. „Man hat eben manchmal nur die Wahl, ein passendes Gift auszuwählen“, kommentiert Filks. Er selbst sieht diese Gefahr besonders bei den auf Software basierenden Lösungen wie Datacore oder Falconstor: „Hier muss der Kunde für Funktionen wie High Availability oder Seamless Migration , die ausgefeilte Storage-Arrays heute gleich mitbringen, möglicherweise noch einmal bezahlen und macht sich unter Umständen abhängig von einem vergleichsweise kleinen Softwareanbieter.“
* Ariane Rüdiger ist Redakteurin der deutschen Computerwoche.


Mehr Artikel

Ismet Koyun, CEO und Gründer der KOBIL Gruppe (c) KOBIL Gruppe
Kommentar

Wie SuperApps den Mobilitätsmarkt revolutionieren können

Bahntickets, Busse, Carsharing, Taxis – wer mobil sein will, benötigt eine Vielzahl von Apps. Das muss nicht sein, sagt Ismet Koyun, Gründer und CEO des Unternehmens KOBIL, Weltmarktführer für digitale Identitäts- und mobile Sicherheitslösungen. Neue Technologien könnten all diese Angebote in einer einfachen, komfortablen und sicheren Lösung bündeln. Intelligente, vernetzte Verkehrssysteme und Datenaustausch auf österreichischer und europäischer Ebene bereiten dafür den Weg und schaffen die nötigen Voraussetzungen. […]

News

Fünf Aspekte, die Führungskräfte über Datenbanken wissen sollten

Die Datenbanklandschaft hat sich in den letzten zehn Jahren gravierend verändert. Wo früher meist eine einzige Plattform zum Einsatz kam, entsteht in vielen Unternehmen heute geradezu ein Wildwuchs an unterschiedlichen Technologien. Redgate, Anbieter von DevOps-Lösungen für End-to-End-Datenbankmanagement, nennt fünf Gründe, wie es dazu kam – und was Business Leader wissen müssen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*