Neun Tipps für clevere Virtualisierung

Die Server-Landschaft ist konsolidiert und virtualisiert, die IT-Kosten sinken. Was bleibt da eigentlich noch zu tun? Eine ganze Menge, behaupten die Analysten von Forrester und geben neun Tipps. [...]

Das Grundproblem ist laut Forrester Research schnell gefunden: Viele Unternehmen reizten die Möglichkeiten der x86-Virtualisierung nicht aus. Seit mehr als zehn Jahren steht das Thema x86-Server-Virtualisierung auf der Prioritätenliste von IT-Managern weit oben, schreibt Bartoletti, Experte für den Bereich Infrastructure & Operations bei Forrester Research, in seinem Blog. Mehr als drei Viertel aller Unternehmen würden bis Ende 2013 Virtualisierungstechniken nutzen, sechs von zehn Workloads sollen dann bereits in virtuellen Maschinen (VM) laufen.

Der Markt für Hypervisor, wie sie vor allem die Branchenschwergewichte VMware, ­Microsoft oder Citrix offerieren, sei gereift, die Konsolidierungsvorteile der Virtualisierung unbestritten. Gibt es da noch Luft noch oben? Glaubt man Bartoletti und seinen Analystenkollegen Rich Fichera, Rachel Dines und James Staten, ist die Antwort darauf ein klares Ja. Sie haben neun Prognosen und Empfehlungen für die Virtualisierung im Jahr 2013 formuliert, die IT-Verantwortliche beherzigen sollten.

KONSOLIDIERUNGSVORTEILE REICHEN NICHT
Einfache IT-Anwendungen haben die meisten Unternehmen bereits auf virtuelle Server verlagert, argumentieren die Forrester-Experten. Mit Blick auf das Jahr 2013 ­blieben noch die komplexen, geschäftskritischen Applikationen, allen voran leistungsstarke Datenbanken, ERP- und Collaboration-Systeme.
Solche Anwendungen virtualisiere niemand, nur um Hardwarekosten zu sparen. Nach Ansicht der Analysten muss es darum gehen, diese Systeme mobil zu machen, sodass sie sich einfacher verschieben, schützen und duplizieren lassen. Die Aufgabe der IT-Infrastruktur-Manager sei es nun zu erklären, wie Virtualisierung solche Applikationen schneller, sicherer und zuver­lässiger machen könne. Im zweiten Schritte gelte es, diese Aussagen konkret zu belegen.

DIE VIRTUALISIERUNGSUMGEBUNG MUSS DYNAMISCH SEIN
Sind Ihre virtuellen Maschinen wirklich mobil oder ist Ihr Virtualisierungsszenario im Grunde eher statisch, fragen die Forrester-Spezialisten. Sie verweisen auf die zahlreichen Features im Umfeld des Hypervisor Resource Managements. Diese erlauben es etwa, VM automatisch zu verschieben oder die Auslastung von Host-Systemen und ­deren Leistung zu optimieren. IT-Verantwortliche sollten beispielsweise regelmäßig Konsolidierungs-Kennzahlen checken und die Größen der virtuellen Maschinen überprüfen.

Entsprechende Tools seien verfügbar und womöglich zum Teil sogar schon in den Unternehmen installiert, so die Analysten. Wer sie noch nicht nutze, solle 2013 schleunigst damit anfangen.

DISASTER RECOVERY UND AUSFALLSICHERHEIT
Aus Sicht der Anwenderunternehmen sind die wichtigsten Gründe für Virtualisierungsprojekte heute eine höhere Ausfallsicherheit und Verbesserungen in Sachen Disaster Recovery. Das zumindest hat eine aktuelle Forrester-Erhebung ergeben. Schon jetzt gebe es einen wachsenden Markt für Backup, Recovery, Snapshots, Replication und Archivierungstechniken für Daten in virtuellen Maschinen, berichten die Analysten.

Ihre Prognose: 2013 werden mehr Infrastruktur-Verantwortliche in den IT-Abteilungen Data Protection- und Disaster-Recovery-Tools nutzen, die speziell für Virtualisierungs-Management-Systeme konzipiert und mit diesen integriert sind. Der Return on Investment (RoI) für Virtualisierungsvorhaben werde zunehmend durch eine verbesserte Ausfallsiherheit der IT-Infrastruktur bestimmt.

KONSOLIDIERTE MANAGEMENT-TOOLS FÜR DIE VIRTUALISIERUNG
Sowohl VMware als auch Microsoft haben ihre Suiten für das Virtualisierungs-Management konsolidiert und offerieren jetzt einfachere Pakete. Diese beinhalten vor allem Monitoring- und Analysefunktionen, aber auch Features für Kapazitätsplanung, Konfiguration, Performance Management und Automatisierung. Forrester Research beobachtet in diesem Marktsegment eine Welle von Übernahmen, die IT-Verantwortliche im Auge behalten sollten, wenn sie sich an einen der großen IT-Konzerne binden.

So hat beispielsweise Dell den IT-Management-Softwareanbieter Quest gekauft, der unter anderem Virtualisierungs- und Cloud-Management-Tools entwickelt. IT-Verantwortlichen, die schon jetzt in einer Flut von Virtualisierungsmetriken zu ertrinken drohen, empfiehlt Forrester, dieses „Big-Data-Problem“ mit Hilfe von Analyse-Tools in Angriff zu nehmen. Auf diese Weise ließen sich oft verborgene Schätze in den Unternehmensdaten heben, die Unternehmen zu mehr Effizienz in der IT verhelfen könnten.

ANWENDUNG MUSS DIE PLATTFORM DIKTIEREN
Die Diskussion um Hypervisor-Features ist in vielen Unternehmen beendet, konstatieren die Forrester-Experten. Vor allem die großen Plattformen hätten sich weitgehend einander angenähert. Die Zeiten, in denen alle Applikationen auf einem einzigen Hypervisor virtualisiert wurden, seien vorbei. In der Praxis hätten sich heterogene Virtualisierungsumgebungen etabliert. Für Anwenderunternehmen, die eine Abhängigkeit vom Hersteller fürchten, sei das eine gute Nachricht.

So setzen etliche Organisationen inzwischen auf Open-Source-Hypervisor und Linux-Virtualisierung, berichten die Analysten. Die verfügbaren Funktionen in diesem Bereich seien zumindest gut genug; gerade im Linux-Umfeld gebe es noch jede Menge Workloads, die sich virtualisieren ließen.

Die Forrester-Empfehlung in diesem Kontext lautet: Ihre Anwendungen und Betriebssysteme sollten determinieren, welches der beste Weg zur Virtualisierung ist. Auf diese Weise könnten IT-Verantwortliche dann auch fortgeschrittene Managementfunktionen für solche Anwendungen nutzen, die diese für ihre Arbeit wirklich benötigen.

Früher oder später, so die Prognose der Analysten, würden alle Anbieter von Virtualisierungs-Management-Software die Heterogenität in den Unternehmen akzeptieren und mit ihren Produkten auch unterstützen.

DER HYPERVISOR-PREISKRIEG SETZT SICH FORT
Microsoft wird mit seinem kostenlosen Hypervisor Hyper-V weiter versuchen, VMwares Dominanz zu brechen, erwarten die Auguren, vor allem im Markt für KMU und auf Abteilungsebene in größeren Unternehmen. Doch die Frage, ob der VM-Container frei verfügbar ist, sei inzwischen weitgehend irrelevant: Kunden bezahlten in Wirklichkeit für den Management-Stack, und das sei zu begrüßen.

Ganz gleich ob sie VMwares vCenter, Microsofts System Center oder irgend eine andere Management-Suite bevorzugten, bei der Auswahl des Hypervisor könnten Anwenderunternehmen heute frei entscheiden und auch Open-Source-Optionen berücksichtigen. VMware gerate dabei laut Forrester erheblich unter Druck, Kunden weiter an seine Management-Tools zu binden.

Unterm Strich, so die Prognose, werden Management-Tools 2013 leistungsstärker und billiger. Die eigentliche Schlacht um Marktanteile sollte in diesem Segment stattfinden, so Forrester.

2013 WIRD DAS JAHR DER SOFTWARE-DEFINED DATA CENTER
Das Konzept des Software-defined Data Center (SDD oder auch SDDC) ist aus Sicht der Forrester-Experten der nächste logische Schritt hin zu hochautomatisierten und effizienten IT-Operationen. Im Grunde stecke dahinter eine natürliche Erweiterung der Virtualisierung auf Storage- und Netzwerkebenen. Schon ab Mitte des Jahres erwarten die Analysten die ersten integrierten Lösungen für Software-definiertes Computing, die auch Netz- und Storage-Ressourcen einschließen.

VMware beispielsweise sei Forrester zufolge mit der Übernahme von Nicira einen sehr großen Schritt in diese Richtung gegangen und verfüge bereits über eine mächtige Suite mit API für die Storage-Integration. Aber auch Microsoft investiere viel in dieses Thema und habe seinen Windows Server 2012 mit einer Reihe von Features für die Storage- und Netzvirtualisierung ausstaffiert.

Wenn sie eine neue VM in Sekunden provisionieren können, für die Zuweisung von Storage- oder Netzressourcen aber Tage brauchen, sollten sie diese Entwicklungen im Auge behalten, rät Forrester IT-Verantwortlichen.

DAS HYBRIDE DATA CENTER WIRD POPULÄRER ALS PRIVATE CLOUDS
Für Forrester-Kunden ist eines klar, schreibt Bartoletti: Hybriden Rechenzentren mit ­einem Mix aus virtualisierten lokalen ­Ressourcen (on-premises) und externen Workloads in der Cloud (off-premises) ­gehört die Zukunft. Und diese Zukunft beginne jetzt. IT-Manager sollten aufhören sich zu fragen, ob ihre virtualisierte Umgebung nun eine „echte“ Private Cloud sei. Stattdessen sollten sie sich darauf konzentrieren, interne Ressourcen durch Infrastruktur und Anwendungen aus der Public Cloud zu ergänzen. Konkret bedeute das: Hören Sie auf, Tools für das Infrastruktur-Management zu kaufen und prüfen Sie solche Tools, die eine einfache Provisionierung und automatische Konfiguration komplexer Services ermöglichen. Ihre Business-Kunden wollen, dass Sie IT-Services liefern, nicht Infrastruktur.

CFO WILL KOSTENTRANSPARENZ FÜR VIRTUELLE UMGEBUNGEN
Das obere Management des Unternehmens wird sich 2013 viel stärker für die Kosten der virtualisierten Umgebungen interessieren, lautet die letzte Prognose der Experten. Kennen Sie die inkrementellen Kosten für das Aufsetzen einer neuen virtualisierten Applikation? Verfolgen Sie die annualisierten Kosten für Verwaltung und Wartung einer virtuellen Maschine, einschließlich der darunter liegenden Storage- und auch Netzinfrastruktur?

Falls nicht, sollten Sie sich im laufenden Jahr intensiv mit den finanziellen Aspekten des IT-Betriebs befassen, raten die Analysten. Virtualisierte Ressourcen ließen sich einfacher aus dem Data Center transferieren als physische Assets. Dafür komme indes nicht nur die Cloud in Betracht; auch Hosting-Provider witterten Geschäftschancen. In jedem Fall sollten IT-Verantwortliche die Kosten ihrer virtualisierten Workloads erklären können, wenn es eines Tages darum gehe, diese zu verteidigen.

* Wolfgang Herrmann ist Chefredakteur des TecChannel.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*