Fünf neue Herausforderungen bei der Virtualisierung

Laut einer Umfrage von SolarWinds stimmten mehr als 700 IT-Fachleute in sechs Ländern zu, dass die Virtualisierungstechnologie das IT-Management erheblich erschwert. Der Anbieter von IT-Managementsoftware rät deshalb IT-Spezialisten, auf fünf Herausforderungen für das Management besonders vorbereitet zu sein. [...]

Mit der Integration von Virtualisierungsfunktionen in Netzwerke, Speicher, Anwendungen und Datenbanken, die dem Software-geprägten Rechenzentrum eine Form geben, entstehen Probleme beim Management von Rechenzentren und der Sichtbarkeit über die Grenzen der einzelnen Rechenzentren hinweg. Laut einer Umfrage von SolarWinds, einem Anbieter von IT-Managementsoftware, stimmten mehr als 700 IT-Fachleute in sechs Ländern auf der ganzen Welt zu, dass die Virtualisierungstechnologie das Management erheblich erschwert.

SolarWinds rät deshalb IT-Spezialist auf die folgenden fünf Herausforderungen für das Management vorbereitet zu sein:

1. Virtuelle Mobilität wirkt sich auf die Netzwerkoptimierung aus – Eine Virtualisierung erfolgte in der Regel innerhalb eines zusammenhängenden Teils des Netzwerks, sodass sich Änderungen in der Virtualisierungsumgebung gewöhnlich nicht auf das größere Netzwerk auswirkten. Mit Verbesserungen und einer zunehmenden Einführung von Mobilitätstechnologien für Arbeitslasten wie Metro vMotion und Storage vMotion, die eine geografische Übertragung von Arbeitslasten erleichtern, könnte die schnelle Übertragung von Arbeitslasten neue Probleme für das Unternehmensnetzwerk insgesamt mit sich bringen.

2. Der Versuch von Speichertechnologie, mit virtueller Mobilität und Software-geprägten Netzwerken Schritt zu halten – So wie die virtuelle Mobilität Netzwerke beeinflussen kann, kann die Speichertechnologieleicht in den Hintergrund geraten, wenn Computing und Netzwerke stärker durch Software geprägt und flexibler werden. Im Hinblick auf Speicher werden eine fortschrittliche Planung und Investitionen in Technologie erforderlich sein, damit die Speichersysteme die Mobilität bewältigen können, die durch die Servervirtualisierung und Software-geprägte Netzwerke ermöglicht wird.

3. Der virtuelle „E/A Blender“ wird über den Erfolg entscheiden – Speicher-E/A ist für die Virtualisierung vieler E/A-intensiver Anwendungen wie Datenbanken zu einem einschränkenden Faktor geworden. Mit Technologien wie Solid-State-Laufwerken (SSD), die vielen dieser erfolgsentscheidenden Anwendungen die Tür öffnen, werden Leistungsausfälle und Fehler beim Kapazitätenmanagement noch größere Auswirkungen auf das Unternehmen und auf Endbenutzer haben. Außerdem kann der durch die Desktopvirtualisierung erzeugte IOPS-Bedarf erheblich von dem der Servervirtualisierung abweichen und kürzere Latenzzeitensowie in der Regel teurere Hardware erfordern.

4. Anwendungskontrolle trifft Echtzeit-Automatisierung – Die meisten Ausfälle werden von Elementen verursacht, die gerade Veränderungen unterliegen. Infolgedessen wurden Änderungen an erfolgsentscheidenden Anwendungssystemen bisher von den Anwendungsteams sehr strengen Kontrollen unterworfen. Virtualisierung und Automatisierung sorgen hingegen dafür, dass neue Systeme sehr schnell und einfach erstellt und Änderungen an bestehenden Systemen oder sogar ganzen Systemclustern und Anwendungsstacks vorgenommen werden können. Angesichts dieser beiden Wirkungskreise müssen Möglichkeiten gefunden werden, die Kraft und Flexibilität der Virtualisierung optimal auszunutzen, ohne dass wichtige virtualisierte Anwendungen instabil werden.

5. Virtualisierung reicht über Silos hinaus – Netzwerk, Speicher, Anwendungen und Computing: Alle kommen auf einer Virtualisierungsschicht zusammen. Während die Servervirtualisierung bei weitem die fortschrittlichsteKomponente eines Software-geprägten Rechenzentrums ist, wird die nächste Herausforderung darin bestehen, über die Computing-Grenzen hinauszublicken und zu erkennen, wie sich Änderungen bzw. Aktionen mit anderen Technologiebereichen am besten verwalten und koordinieren lassen. Da das Tempo von Veränderungen bei der gesamten miteinander zusammenhängenden Technologie zunimmt, werden die IT-Fachleute, die die Virtualisierungsschicht managen, zunehmend zur koordinierenden Verbundstelle, um andere Teams auf Kurs zu halten. (pi)


Mehr Artikel

News

6 Grundsätze für eine KI-taugliche Datenbasis

Wer Künstliche Intelligenz nutzen will, muss über eine vertrauenswürdige Datengrundlage verfügen. Daten sind das Lebenselixier von KI-Systemen und bestimmen maßgeblich die Qualität und Zuverlässigkeit der Ergebnisse. Nur so können KI-Modelle robust, anpassungsfähig und vertrauenswürdig arbeiten. […]

News

Cybersicherheitsbudgets werden falsch priorisiert

Der ICS/OT Cybersecurity Budget Report 2025 von OPSWAT deckt erhebliche Lücken in den Cybersicherheitsbudgets sowie einen Anstieg von ICS/OT-fokussierten Angriffen auf. Ferner wird deutlich, wie durch eine unzureichende Finanzierung, falsch gesetzte Prioritäten und uneinheitliche Abwehrmaßnahmen kritische Infrastrukturen immer raffinierteren Bedrohungen ausgesetzt sind. […]

News

Nach dem Hype: Diese vier KI-Trends werden 2025 weiterhin prägen

Die vergangenen zwei Jahre haben einen regelrechten KI-Boom erlebt. Insbesondere generative Modelle (GenAI) haben sich rasant weiterentwickelt und etablieren sich zunehmend als feste Größe in den Arbeitsprozessen von Organisationen weltweit. Angesichts dieser Dynamik fragen sich nun viele Unternehmen, welche Entwicklungen das Jahr 2025 bestimmen werden und welche Potenziale sich daraus ergeben. […]

News

Generative KI als Sicherheitsrisiko

Eine neue Studie von Netskope zeigt einen 30-fachen Anstieg der Daten, die von Unternehmensanwendern im letzten Jahr an GenAI-Apps (generative KI) gesendet wurden. Dazu gehören sensible Daten wie Quellcode, regulierte Daten, Passwörter und Schlüssel sowie geistiges Eigentum. Dies erhöht das Risiko von kostspieligen Sicherheitsverletzungen, Compliance-Verstößen und Diebstahl geistigen Eigentums erheblich. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*