Zeit für eine Bilanz: Die 10 größten Vorteile von Server-Virtualisierung

Es geht zwar nicht so schnell voran, wie die Hersteller glauben machen wollen. Dennoch ist es an der Zeit, ein Fazit zu ziehen: Was bringen virtualisierte Server? [...]

Konsolidierung, Kostenreduzierung, Automatisierung oder lockeres Verschieben von kompletten Applikationen von einem physischen Ort zu einem anderen: Um Server-Virtualisierung ranken sich viele Annahmen und Hypothesen, obwohl diese Technologie jetzt schon etwa zehn Jahre für x86-Server am Markt verfügbar ist. Noch immer aber gilt sie als etwas „Neues“.
Aktuelle Whitepaper zum Thema Virtualisierung:

  • Ratgeber zur Überwachung virtualisierter Umgebungen
  • Schnellere SAP-Entwicklung mit Virtualisierung
  • Datensicherung im Virtualisierungs-Zeitalter

Viele Unternehmen halten sich denn auch weiterhin zurück bei der Implementierung oder experimentieren allenfalls etwas mit „niedrigeren“ Anwendungen herum. Für geschäftskritische Applikationen reserviert man nach wie vor lieber einen eigenen physikalischen Server – Ausnahmen bestätigen die Regel.

VMware und andere Hersteller sprechen inzwischen bereits von einer zweiten oder dritten Phase, die nach der vollzogenen Server-Virtualisierung anstehe. Bevor es wirklich dazu kommt und sich Anwender in neue Investitionen stürzen, erscheint es angebracht, einmal kurz die bisher erreichten Vorteile zu rekapitulieren.

1. Energie einsparen
Es sind vielleicht nur ein paar Tropfen auf den heißen Stein, aber immerhin: Weniger physikalische Server im Rechenzentrum bedeuten nun einmal weniger Strom im laufenden Betrieb und weniger Kühlung. Über „Green IT“ spricht man nicht mehr so viel, aber die Einrichtung virtueller Maschinen (VMs) ist ein faktischer Beitrag zu einer besseren Klimabilanz und einer „grüneren“ Umwelt. Man muss ja nicht gleich ein fanatischer Umweltkämpfer sein, der das ganze Menschheitsglück auf den Umgang mit der Natur reduziert, ein kühler Kopf, der rechnen kann, reicht schon.

2. Kleinere Rechenzentren
Mit der Einsparung von Energie geht auch die Verkleinerung der Rechenzentren einher: Weniger Server bedeuten geringere Stellfläche, weniger Verkabelung oder Racks, solange man zumindest das Wachstum erst einmal außer Acht lässt. Auf jeden Fall ist mit weniger physikalischen Servern genug Platz da, um innerhalb der bestehenden RZ-Mauern zu wachsen. Wer bei einem Hosting-Anbieter untergeschlüpft ist, kann weitere Kosten einsparen.

3. Platz für ein eigenes Lab
Was tun mit den Servern, die man nicht mehr braucht? Man könnte sie gut verwenden für die Einrichtung oder Vergrößerung eines eigenen Testcenters, um neue Applikationen und Tools in Ruhe und ohne größere zusätzliche Kosten auszuprobieren. Die Hardware wäre ja vorhanden. Außerdem lassen sich VMs für Test und Entwicklung bereitstellen. VMware selbst geht hier mit seinen großen internationalen Konferenzen vorbildmäßig voran: Auf der VMworld in den USA oder Europa werden jedes Mal zahlreiche virtuelle Labs zur Verfügung gestellt.

4. Schnellere Server-Provisionierung
VMs sind leicht installiert, so dass die umständlichen und zeitraubenden Anfragen für einen Server entfallen, wenn eine Unternehmensabteilung eine neue Anwendung braucht. Alles das benötigt heute nur noch Minuten. Das gleiche gilt für Clones bestehender Applikationen, um etwas Neues auszuprobieren.

5. Vendor-Lock-in bei Hardware reduzieren
Sich auf einen speziellen Hardware-Anbieter einzulassen und zu verlassen, muss nicht schlecht sein: Man kennt sich, hat Erfahrung mit den Produktlinien, der Wartung, dem Service und den SLAs, bekommt mit der Zeit Extrakonditionen und sofort. Man kann dieses Verhältnis aber auch in umgekehrter Richtung betrachten, und dann sitzt vielleicht der Anwender auf der schlechteren Seite – er sitzt in einem Lock-in fest.

Bei einer virtualisierten Server-Landschaft besteht dagegen Wahlfreiheit immer dann, wenn ein neuer Server benötigt wird – die VM läuft ja unabhängig von der darunter liegenden Hardware-Schicht. Auf dieser Grundlage lässt sich auch gut verhandeln mit dem ursprünglichen Server-Lieferanten, wenn es um die Lieferung von neuem Equipment geht.

6. Erhöhte Verfügbarkeit
Unabhängig davon, wie die Bezeichnungen bei den verschiedenen Anbietern von Server-Virtualisierung lauten, verfügen inzwischen fast alle über identische Funktionen, mit denen sich Verfügbarkeit und Business Continuity verbessern lassen. Dazu gehören Live Migration, Storage Migration, Fehlertoleranz, Hochverfügbarkeit und Ressourcen-Management. Virtuelle Maschinen können damit leicht verschoben und vor ungewünschten Auszeiten geschützt werden.

7. Virtuelles Disaster Recovery
Virtuelles Disaster Recovery ist nicht wirklich virtuell, sondern sehr wirklich. Erreicht wird dies über drei Komponenten der Virtualisierungsinfrastruktur: Die erste betrifft die Abstraktion von der Hardware. VMs lassen sich unabhängig von einem besonderen Server-Hersteller oder einem besonderen Server-Modell installieren. Das bedeutet, dass man auf der Disaster-Recovery-Site keine identische Hardware mehr braucht, um die VMs oder Applikationen zu spiegeln.

Auf der DR-Site kann so billigere Hardware eingesetzt werden, da sie vermutlich nicht so oft benutzt wird. Zweitens braucht man auf physikalischer Ebene eine geringer dimensionierte DR-Site, was ebenfalls zu Kosteneinsparungen führt. Drittens bieten die meisten Plattformen für Server-Virtualisierung Software-Tools, die den Failover-Prozess automatisieren. Mit diesen Werkzeugen lassen sich in der Regel auch Test-Szenarios für den Ernstfall durchführen.

8. Isolierte Applikationen
In der physischen Welt war es bisher üblich, jeder Applikation einen eigenen Server zuzuweisen. Damit war dafür Sorge getragen, dass die einzelnen Software-Programme sauber voneinander isoliert waren. Aber das führte auch zu einem Wust von Rechnern, von denen viele noch dazu nicht optimal ausgelastet waren. Und die Kosten für diese Server-Landschaft liefen schnell aus dem Ruder. Nicht so bei Virtualisierung. Inzwischen sind auch die nötigen Funktionen und Tools vorhanden, um VMs und die in ihnen verpackten Anwendungen sauber voneinander zu trennen. CPU, Memory und Storage können exakt ausgelastet werden, die Kosten in einem solchen Modell sinken.

9. Die Lebenszeit älterer Anwendungen verlängern
Fast jedes Unternehmen verfügt noch über Alt-Applikationen, vor längerer Zeit entweder selbst entwickelt oder für bestimmte Zwecke eingekauft. Sie tun ihre Dienste, laufen aber nicht auf modernen Betriebssystemen oder brauchen ganz dedizierte Hardware-Voraussetzungen. Die IT-Mannschaft möchte sie am liebsten überhaupt nicht anrühren. Was viele bis jetzt nicht bedacht und ausprobiert haben: Man kann diese Restbestände, solange sie noch benötigt werden, auch in eine VM verpacken – samt altem Betriebssystem und virtuell vorgegaukelter alter Hardware. Es gibt sogar schon Dienstleister, die sich auf solche Fälle spezialisiert haben.
10. Schlussendlich: die Cloud
Wer seine Server virtualisiert und von der darunter liegenden Hardware-Schicht abstrahiert, hat sich bereits ein Stückchen in Richtung „Cloud“ bewegt. Egal, wie man die Sache nun nennt, „Cloud“ meint letztlich die Ausweitung des Service-Prinzips in die bis jetzt hermetisch abgeschlossene Welt der firmeneigenen Rechenzentren.

Sicher, da und dort hat man Teile der IT-Infrastruktur im Outsourcing-Verfahren an externe Dienstleister ausgelagert – oder auch wieder zurückgeholt. Mit Virtualisierung der Server-Landschaften und der darin verpackten Anwendungen lässt sich das Service-Prinzip auf ein neues Niveau heben: Die Bindung an einzelne physikalische Server ist aufgehoben, und die Applikationen können intern verschoben und nach neuen Benützungskriterien den Unternehmensmitarbeitern für einen begrenzten Zeitraum zur Verfügung gestellt werden („Private Cloud“).

Sie können aber auch Lieferanten oder Kunden angeboten werden („Hybrid Cloud“) oder komplett an einen externen Dienstleister ausgelagert werden („Public Cloud“). Daten und Anwendungen werden in einem solchen Schema „mobil“. Ausprobieren kann man es ja einmal. Mit Virtualisierung gibt es zumindest die Chance dazu.

* Der Autor ist Redakteur des deutschen CIO.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*