Anspruchsvolle Aufgabe für echte Profis

Virtualisierungsprojekte verlaufen nur dann erfolgreich, wenn die Balance zwischen Performance, Redundanz und Kosten gefunden wird. Ohne tiefgreifendes Wissen um das Zusammenspiel aller betreffenden Faktoren ist die Gefahr des Scheiterns allgegenwärtig. [...]

Virtualisierung verheißt neben mehr Platz im Rechenzentrum, Effizienzsteigerung, Flexibilität und Hochverfügbarkeit auch signifikante Kosteneinsparungen. Das Rezept klingt einfach: Mit Virtualisierungssoftware wird eine Ab­straktionsebene eingezogen, die einen Server in die Lage versetzt, die Arbeit von bisher zehn physikalischen Maschinen zu erledigen. Die Umsetzung und die Integration in bestehende IT-Landschaften erweist sich jedoch oft als äußerst komplex und viele Projekte scheitern an mangelndem Know-how im Unternehmen. Denn die Virtualisierung betrifft nicht nur die Serverlandschaft, sondern das gesamte Netzwerk inklusive Storage.

Virtualisierungsprojekte verlaufen dann erfolgreich, wenn bei der Planung und der Implementierung stets die Balance der Faktoren Performance, Redundanz und Kosten berücksichtigt wird. Ohne fundiertes Wissen um das optimale Zusammenspiel bestehender und virtualisierter Komponenten bezahlt der Kunde sonst die niedrigeren Kosten schnell mit Leistungseinbußen, Ausfällen und unzufriedenen Usern. So wird zwar einerseits oftmals Geld für wegfallende physikalische Server gespart. Anderseits ist es beispielsweise nötig, in schnellere und damit teurere Netzwerkverbindungen zwischen Management-Server, Server und zentralem Storage zu investieren, damit die Geschwindigkeit von Applikationen nicht beeinträchtigt wird. Schon die richtige Auslastung und Verteilung der Serverlast verlangt Erfahrung. Normale Server werden in der Regel mit fünf bis zehn Prozent Auslastung betrieben. Durch die Virtualisierung kann die Auslastung auf bis zu 80 Prozent gesteigert werden. Viele Applikationen haben jedoch Mindestanforderungen an die Anzahl der benötigten Server-Cores. Obwohl Hex-Cores inzwischen Standard sind, kommt es hier oft zu Überbuchungen und damit Performance-Einbußen. Bei der verteilten Verwaltung der Applikationen muss außerdem berücksichtigt werden, für wie viele gleichzeitige Zugriffe die Software ausgelegt ist, ohne dass ihre Performance darunter leidet. Eine potenzielle Fehlerquelle ist auch der virtuelle Switch Host. Wird eine große Anzahl an Servern über zu wenige physische Netzwerkkarten angebunden, drohen Wartezeiten, die bei Anwendungen wie etwa SAP oder Sprachtelefonie zu Ausfällen führen können.

Besonders kritisch sind bei der Virtualisierung die Auslegung und das Design des Storage. Eine Anbindung über das Protokoll iSCSI ist meist kostengünstiger, aber oftmals langsamer als über Fiber Channel. Nutzt man allerdings mehrere parallele Leitungen, lässt sich die Geschwindigkeit wieder erhöhen. Auch die Art und Weise, wie Daten auf die einzelnen Festplatten im Storage geschrieben werden, hat maßgeblichen Einfluss auf Lesegeschwindigkeit und Verfügbarkeit. Werden einzelne Daten auf verschiedene Festplatten im Storage verteilt, steigt zudem die Geschwindigkeit durch die parallele Verarbeitung. Neben der richtigen Wahl der Datenspeicherung stellt auch die Erstellung eines optimalen Backup-Konzepts in virtualisierten Umgebungen hohe Anforderungen an das ausführende Team.

Virtualisierung verlangt also nach professionellem Know-how und einer Gesamtsicht auf das System IT. Sind diese Voraussetzungen erfüllt, lassen sich die Vorteile voll ausschöpfen. So können je nach Applikation durchschnittlich zehn Server auf einer einzigen Maschine betrieben werden. Das spart neben Investitionskosten auch Platz im Rechenzentrum und Energie­kosten. Darüber hinaus stehen durch die Partitionierung sehr kurzfristig zusätzliche Kapazitäten zur Verfügung, die – etwa für Testzwecke – rasch genutzt werden können. Ein weiterer Vorteil ist eine erhöhte Redundanz: So ist es oftmals möglich, Applikationen, die selbst nicht clusterfähig sind, in virtuellen Umgebungen ohne großen Aufwand zu clustern.

* Mario Drapela ist Virtualisierungsexperte und Projektmanager bei Itsdone.


Mehr Artikel

Die Teilnehmer des Roundtables (v.l.n.r.): Roswitha Bachbauer (CANCOM Austria), Thomas Boll (Boll Engineering AG), Manfred Weiss (ITWelt.at) und Udo Schneider (Trend Micro). (c) timeline/Rudi Handl
News

Security in der NIS2-Ära

NIS2 ist mehr ein organisatorisches Thema als ein technisches. Und: Von der Richtlinie sind via Lieferketten wesentlich mehr Unternehmen betroffen als ursprünglich geplant, womit das Sicherheitsniveau auf breiter Basis gehoben wird. Beim ITWelt.at Roundtable diskutierten drei IT-Experten und -Expertinnen über die Herausforderungen und Chancen von NIS2. […]

Christoph Mutz, Senior Product Marketing Manager, AME, Western Digital (c) AME Western Digital
Interview

Speicherlösungen für Autos von morgen

Autos sind fahrende Computer. Sie werden immer intelligenter und generieren dabei jede Menge Daten. Damit gewinnen auch hochwertige Speicherlösungen im Fahrzeug an Bedeutung. Christoph Mutz von Western Digital verrät im Interview, welche Speicherherausforderungen auf Autohersteller und -zulieferer zukommen. […]

Andreas Schoder ist Leiter Cloud & Managend Services bei next layer, Alexandros Osyos ist Senior Produkt Manager bei next layer. (c) next layer
Interview

Fokus auf österreichische Kunden

Der österreichische Backup-Experte next layer bietet umfassendes Cloud-Backup in seinen Wiener Rechenzentren. Im Interview mit ITWelt.at erläutern Andreas Schoder, Leiter Cloud & Managed Services, und Alexandros Osyos, Senior Produkt Manager, worauf Unternehmen beim Backup achten müssen und welche Produkte und Dienstleistungen next layer bietet. […]

Miro Mitrovic ist Area Vice President für die DACH-Region bei Proofpoint.(c) Proofpoint
Kommentar

Die Achillesferse der Cybersicherheit

Eine immer größere Abhängigkeit von Cloud-Technologien, eine massenhaft mobil arbeitende Belegschaft und große Mengen von Cyberangreifern mit KI-Technologien haben im abgelaufenen Jahr einen wahrhaften Sturm aufziehen lassen, dem sich CISOS ausgesetzt sehen. Eine große Schwachstelle ist dabei der Mensch, meint Miro Mitrovic, Area Vice President DACH bei Proofpoint. […]

Alexander Graf ist Geschäftsführer der Antares-NetlogiX Netzwerkberatung GmbH. (c) Antares-NetlogiX Netzwerkberatung GmbH
Interview

Absicherung kritischer Infrastrukturen

NIS2 steht vor der Tür – höchste Zeit, entsprechende Maßnahmen auch im Bereich der Operational Technology (OT) zu ergreifen. »Wenn man OT SIEM richtig nutzt, sichert es kritische Infrastrukturen verlässlich ab«, sagt Alexander Graf, Experte für OT-Security (COSP) und Geschäftsführer der Antares-NetlogiX Netzwerkberatung GmbH, im ITWelt.at-Interview. […]

Brian Wrozek, Principal Analyst bei Forrester (c) Forrester
Interview

Cybersicherheit in der Ära von KI und Cloud

Die Bedrohungslandschaft im Bereich der Cybersicherheit hat sich zu einer unbeständigen Mischung von Bedrohungen entwickelt, die durch zunehmende Unsicherheit und steigende Komplexität bedingt ist. Zu diesem Schluss kommt der Report »Top Cyber-security Threats In 2024« von Forrester. ITWelt.at hat dazu mit Studienautor Brian Wrozek ein Interview geführt. […]

In Österreich gibt es die freie Wahl des Endgeräts. Oder doch nicht? (c) Pexels
News

RTR erklärt Wahlfreiheit zum Nischenthema

Bei der Frage, ob Endkunden oder die Provider darüber entscheiden sollten, welches Endgerät sie an ihrem Breitbandanschluss nutzen können, stellt sich die RTR klar auf eine Seite. Laut RTR existiert bereits Wahlfreiheit. Dennoch will die Regulierungsbehörde aktiv werden, wenn sich noch mehr Kunden über das Fehlen der Wahlfreiheit bei ihr beschweren. Logik geht anders. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*