Anspruchsvolle Aufgabe für echte Profis

Virtualisierungsprojekte verlaufen nur dann erfolgreich, wenn die Balance zwischen Performance, Redundanz und Kosten gefunden wird. Ohne tiefgreifendes Wissen um das Zusammenspiel aller betreffenden Faktoren ist die Gefahr des Scheiterns allgegenwärtig. [...]

Virtualisierung verheißt neben mehr Platz im Rechenzentrum, Effizienzsteigerung, Flexibilität und Hochverfügbarkeit auch signifikante Kosteneinsparungen. Das Rezept klingt einfach: Mit Virtualisierungssoftware wird eine Ab­straktionsebene eingezogen, die einen Server in die Lage versetzt, die Arbeit von bisher zehn physikalischen Maschinen zu erledigen. Die Umsetzung und die Integration in bestehende IT-Landschaften erweist sich jedoch oft als äußerst komplex und viele Projekte scheitern an mangelndem Know-how im Unternehmen. Denn die Virtualisierung betrifft nicht nur die Serverlandschaft, sondern das gesamte Netzwerk inklusive Storage.

Virtualisierungsprojekte verlaufen dann erfolgreich, wenn bei der Planung und der Implementierung stets die Balance der Faktoren Performance, Redundanz und Kosten berücksichtigt wird. Ohne fundiertes Wissen um das optimale Zusammenspiel bestehender und virtualisierter Komponenten bezahlt der Kunde sonst die niedrigeren Kosten schnell mit Leistungseinbußen, Ausfällen und unzufriedenen Usern. So wird zwar einerseits oftmals Geld für wegfallende physikalische Server gespart. Anderseits ist es beispielsweise nötig, in schnellere und damit teurere Netzwerkverbindungen zwischen Management-Server, Server und zentralem Storage zu investieren, damit die Geschwindigkeit von Applikationen nicht beeinträchtigt wird. Schon die richtige Auslastung und Verteilung der Serverlast verlangt Erfahrung. Normale Server werden in der Regel mit fünf bis zehn Prozent Auslastung betrieben. Durch die Virtualisierung kann die Auslastung auf bis zu 80 Prozent gesteigert werden. Viele Applikationen haben jedoch Mindestanforderungen an die Anzahl der benötigten Server-Cores. Obwohl Hex-Cores inzwischen Standard sind, kommt es hier oft zu Überbuchungen und damit Performance-Einbußen. Bei der verteilten Verwaltung der Applikationen muss außerdem berücksichtigt werden, für wie viele gleichzeitige Zugriffe die Software ausgelegt ist, ohne dass ihre Performance darunter leidet. Eine potenzielle Fehlerquelle ist auch der virtuelle Switch Host. Wird eine große Anzahl an Servern über zu wenige physische Netzwerkkarten angebunden, drohen Wartezeiten, die bei Anwendungen wie etwa SAP oder Sprachtelefonie zu Ausfällen führen können.

Besonders kritisch sind bei der Virtualisierung die Auslegung und das Design des Storage. Eine Anbindung über das Protokoll iSCSI ist meist kostengünstiger, aber oftmals langsamer als über Fiber Channel. Nutzt man allerdings mehrere parallele Leitungen, lässt sich die Geschwindigkeit wieder erhöhen. Auch die Art und Weise, wie Daten auf die einzelnen Festplatten im Storage geschrieben werden, hat maßgeblichen Einfluss auf Lesegeschwindigkeit und Verfügbarkeit. Werden einzelne Daten auf verschiedene Festplatten im Storage verteilt, steigt zudem die Geschwindigkeit durch die parallele Verarbeitung. Neben der richtigen Wahl der Datenspeicherung stellt auch die Erstellung eines optimalen Backup-Konzepts in virtualisierten Umgebungen hohe Anforderungen an das ausführende Team.

Virtualisierung verlangt also nach professionellem Know-how und einer Gesamtsicht auf das System IT. Sind diese Voraussetzungen erfüllt, lassen sich die Vorteile voll ausschöpfen. So können je nach Applikation durchschnittlich zehn Server auf einer einzigen Maschine betrieben werden. Das spart neben Investitionskosten auch Platz im Rechenzentrum und Energie­kosten. Darüber hinaus stehen durch die Partitionierung sehr kurzfristig zusätzliche Kapazitäten zur Verfügung, die – etwa für Testzwecke – rasch genutzt werden können. Ein weiterer Vorteil ist eine erhöhte Redundanz: So ist es oftmals möglich, Applikationen, die selbst nicht clusterfähig sind, in virtuellen Umgebungen ohne großen Aufwand zu clustern.

* Mario Drapela ist Virtualisierungsexperte und Projektmanager bei Itsdone.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*