Die Zukunft der Virtualisierung

Der Begriff "Software Defined" übernimmt das Marketing-Zepter und löst damit kundenseitig Konfusion über die Angebote der unterschiedlichen Hersteller aus. EMC, VMware & Co über das neue Zeitalter der Rechenzentren. [...]

Auf der Analysten-Konferenz „Strategic Forum“ im Frühjahr haben EMC, VMware und die neugegründete Tochter Pivotal ihre Pläne für die nächsten Jahre dargelegt. Inhaltlich setzt man jeweils verschiedene Akzente: EMC nach wie vor mit Storage pur (plus etwas RSA Security), jetzt angereichert mit „Software Defined Storage“ (alias „Storage Virtualisierung“), VMware neben klassischer Virtualisierung jetzt verstärkt mit SDN („Software Defined Network“) und SDDC („Software Defined Data Center“), Pivotal schließlich mit einer geplanten Software-Initiative für Cloud- und Big-Data-Umgebungen. EMC und seine Töchter marschieren nicht alleine in diese Richtung. IBM, HP, Cisco und andere haben ebenfalls in „Software Defined“ eine ihrer neuen Lieblingsvokabeln gefunden, die ihr Marketing beherrschen. Im Fall von SDDC heißt das: Alle Infrastruktur ist virtualisiert und wird als Service geliefert. Die Kontrolle dieses Rechenzentrums geschieht vollständig automatisiert durch Software. Soweit die Theorie. Die Praxis sieht anders aus: Zwar braucht es etwas weniger „Blech“, dafür aber um so mehr an Performance und Verfügbarkeit, um die Ansprüche aller Applikationen und Tools ohne Latenz zu befriedigen.

Der Analyst Richard Fichera von Forrester Research geht davon aus, dass sich SDDC gleichzeitig in Richtung einer „Produkt-Kategorie“ und eines zunächst unscharfen Trends entwickeln wird. Erste Produkte würden auf bestehenden Angeboten wie „Converged Infrastructure“ sowie Cloud-Technologien und -Tools beruhen. Microsoft und VMware würden aber bald mit reinen Software-Lösungen herauskommen. Man dürfe deshalb, so Fichera, getrost davon ausgehen, dass zunächst einige Konfusion über genaue Features, Skalierbarkeit und Schnittstellen im SDDC-Umfeld herrschen werde. Fichera sieht ferner eine verstärkte Konkurrenz zwischen den Herstellern voraus, die allesamt den neuen Infrastruktur-Markt beherrschen wollen. So habe Cisco mit seiner Erfahrung bei Netzwerk-Virtualisierung („Software Defined Network“) teilweise die Nase voraus und könnte versucht sein, andere Hersteller auf diesem Gebiet auszugrenzen. Eine ähnliche Haltung könnte man auch von dem Gespann EMC-VMware erwarten. VMware hat bereits 2012 den SDN-Spezialisten Nicira übernommen und damit dem „Alliance“-Partner Cisco, mit dem mit EMC zusammen das Joint Venture „VCE“ gegründet wurde, direkte Konkurrenz bereitet. Seitdem wird immer wieder über die Zukunft von VCE und seinen Vblocks, leistungsfähigen Racks aus aufeinander abgestimmten Servern (hauptsächlich Cisco), Netzwerkelementen (Cisco), Speicher (EMC) und Virtualisierungslayer (VMware), gemunkelt.

WENIGER HARDWARE-VERKAUF
Folgt man der Forrester-Begriffsbestimmung, dann wird auch klar, dass SDDC keineswegs bedeutet, die alten Rechenzentren wegzuwerfen und durch neue auf Software-Basis zu ersetzen. Stattdessen geht es eher darum, neue Rahmenbedingungen und Tools zu finden, um das klassische Inventar von Rechenzentren auf neue Art zusammenzuhalten. Server bleiben Server, Festplatten bleiben Festplatten, Netzwerke dienen mit ihrer physischen Basis dem Datentransport und so weiter.

Beispiel Storage: Hier soll es zum Beispiel vermehrt darum gehen, Management-Funktionen von der Hardware zu entkoppeln, heterogene Speicherumgebungen in Pools zusammenzufassen und geographisch verteilt skalieren zu können. Im Idealfall hieße das, eigene Schnittstellen für die Arrays der Konkurrenz zu öffnen und den Weg zu Commodity-Produkten zu ebnen. Manche von diesen hehren Zielen schwirren schon seit einiger durch die Storage-Welt, an der Umsetzung hat es aber fast immer gehapert, weil kein Hersteller bereit war und ist, den eigenen proprietären Ansatz aufzugeben. Software Defined Storage würde in der Konsequenz bedeuten, sich als Hersteller von der eigenen existierenden Storage-Technologie zu befreien – und sogar bereit zu sein, weniger eigene Hardware zu verkaufen.

Ob EMC, HP oder IBM dazu in der Zukunft bereit sein werden, ist durchaus anzuzweifeln. EMC immerhin hat jüngst mit „ViPR“ einen neuen Vorstoß in Richtung offene Speicher-Infrastruktur vorgenommen. Man entwickelt mit diesem einen Software-Layer für Storage-Arrays, mit dem alle Speicherprodukte verschiedener Hersteller sowie Commodity-Produkte über offene API in eine gemeinsame Infrastruktur überführt werden könnten. Bestehende Ansätze für virtuelle Storage-Pools, etwa von HDS oder IBM, waren immer Hersteller-zentriert und nicht generell offen.

Wann es wirklich zu den ersten real existierenden Software Defined Data Centers kommt, dürfte sich noch etwas hinziehen. Für Unternehmen wird es aber zunehmend neue interessante Virtualisierungs- und Automatisierungsangebote geben. Wie man das Kind dann aber nennt, ist ziemlich egal. „Software Defined“ ist nicht gerade die sinnvollste Wortschöpfung. (idg/su)


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*