Die Zukunft der Virtualisierung

Der Begriff "Software Defined" übernimmt das Marketing-Zepter und löst damit kundenseitig Konfusion über die Angebote der unterschiedlichen Hersteller aus. EMC, VMware & Co über das neue Zeitalter der Rechenzentren. [...]

Auf der Analysten-Konferenz „Strategic Forum“ im Frühjahr haben EMC, VMware und die neugegründete Tochter Pivotal ihre Pläne für die nächsten Jahre dargelegt. Inhaltlich setzt man jeweils verschiedene Akzente: EMC nach wie vor mit Storage pur (plus etwas RSA Security), jetzt angereichert mit „Software Defined Storage“ (alias „Storage Virtualisierung“), VMware neben klassischer Virtualisierung jetzt verstärkt mit SDN („Software Defined Network“) und SDDC („Software Defined Data Center“), Pivotal schließlich mit einer geplanten Software-Initiative für Cloud- und Big-Data-Umgebungen. EMC und seine Töchter marschieren nicht alleine in diese Richtung. IBM, HP, Cisco und andere haben ebenfalls in „Software Defined“ eine ihrer neuen Lieblingsvokabeln gefunden, die ihr Marketing beherrschen. Im Fall von SDDC heißt das: Alle Infrastruktur ist virtualisiert und wird als Service geliefert. Die Kontrolle dieses Rechenzentrums geschieht vollständig automatisiert durch Software. Soweit die Theorie. Die Praxis sieht anders aus: Zwar braucht es etwas weniger „Blech“, dafür aber um so mehr an Performance und Verfügbarkeit, um die Ansprüche aller Applikationen und Tools ohne Latenz zu befriedigen.

Der Analyst Richard Fichera von Forrester Research geht davon aus, dass sich SDDC gleichzeitig in Richtung einer „Produkt-Kategorie“ und eines zunächst unscharfen Trends entwickeln wird. Erste Produkte würden auf bestehenden Angeboten wie „Converged Infrastructure“ sowie Cloud-Technologien und -Tools beruhen. Microsoft und VMware würden aber bald mit reinen Software-Lösungen herauskommen. Man dürfe deshalb, so Fichera, getrost davon ausgehen, dass zunächst einige Konfusion über genaue Features, Skalierbarkeit und Schnittstellen im SDDC-Umfeld herrschen werde. Fichera sieht ferner eine verstärkte Konkurrenz zwischen den Herstellern voraus, die allesamt den neuen Infrastruktur-Markt beherrschen wollen. So habe Cisco mit seiner Erfahrung bei Netzwerk-Virtualisierung („Software Defined Network“) teilweise die Nase voraus und könnte versucht sein, andere Hersteller auf diesem Gebiet auszugrenzen. Eine ähnliche Haltung könnte man auch von dem Gespann EMC-VMware erwarten. VMware hat bereits 2012 den SDN-Spezialisten Nicira übernommen und damit dem „Alliance“-Partner Cisco, mit dem mit EMC zusammen das Joint Venture „VCE“ gegründet wurde, direkte Konkurrenz bereitet. Seitdem wird immer wieder über die Zukunft von VCE und seinen Vblocks, leistungsfähigen Racks aus aufeinander abgestimmten Servern (hauptsächlich Cisco), Netzwerkelementen (Cisco), Speicher (EMC) und Virtualisierungslayer (VMware), gemunkelt.

WENIGER HARDWARE-VERKAUF
Folgt man der Forrester-Begriffsbestimmung, dann wird auch klar, dass SDDC keineswegs bedeutet, die alten Rechenzentren wegzuwerfen und durch neue auf Software-Basis zu ersetzen. Stattdessen geht es eher darum, neue Rahmenbedingungen und Tools zu finden, um das klassische Inventar von Rechenzentren auf neue Art zusammenzuhalten. Server bleiben Server, Festplatten bleiben Festplatten, Netzwerke dienen mit ihrer physischen Basis dem Datentransport und so weiter.

Beispiel Storage: Hier soll es zum Beispiel vermehrt darum gehen, Management-Funktionen von der Hardware zu entkoppeln, heterogene Speicherumgebungen in Pools zusammenzufassen und geographisch verteilt skalieren zu können. Im Idealfall hieße das, eigene Schnittstellen für die Arrays der Konkurrenz zu öffnen und den Weg zu Commodity-Produkten zu ebnen. Manche von diesen hehren Zielen schwirren schon seit einiger durch die Storage-Welt, an der Umsetzung hat es aber fast immer gehapert, weil kein Hersteller bereit war und ist, den eigenen proprietären Ansatz aufzugeben. Software Defined Storage würde in der Konsequenz bedeuten, sich als Hersteller von der eigenen existierenden Storage-Technologie zu befreien – und sogar bereit zu sein, weniger eigene Hardware zu verkaufen.

Ob EMC, HP oder IBM dazu in der Zukunft bereit sein werden, ist durchaus anzuzweifeln. EMC immerhin hat jüngst mit „ViPR“ einen neuen Vorstoß in Richtung offene Speicher-Infrastruktur vorgenommen. Man entwickelt mit diesem einen Software-Layer für Storage-Arrays, mit dem alle Speicherprodukte verschiedener Hersteller sowie Commodity-Produkte über offene API in eine gemeinsame Infrastruktur überführt werden könnten. Bestehende Ansätze für virtuelle Storage-Pools, etwa von HDS oder IBM, waren immer Hersteller-zentriert und nicht generell offen.

Wann es wirklich zu den ersten real existierenden Software Defined Data Centers kommt, dürfte sich noch etwas hinziehen. Für Unternehmen wird es aber zunehmend neue interessante Virtualisierungs- und Automatisierungsangebote geben. Wie man das Kind dann aber nennt, ist ziemlich egal. „Software Defined“ ist nicht gerade die sinnvollste Wortschöpfung. (idg/su)


Mehr Artikel

News

Bad Bots werden immer menschenähnlicher

Bei Bad Bots handelt es sich um automatisierte Softwareprogramme, die für die Durchführung von Online-Aktivitäten im großen Maßstab entwickelt werden. Bad Bots sind für entsprechend schädliche Online-Aktivitäten konzipiert und können gegen viele verschiedene Ziele eingesetzt werden, darunter Websites, Server, APIs und andere Endpunkte. […]

Frauen berichten vielfach, dass ihre Schmerzen manchmal jahrelang nicht ernst genommen oder belächelt wurden. Künftig sollen Schmerzen gendersensibel in 3D visualisiert werden (c) mit KI generiert/DALL-E
News

Schmerzforschung und Gendermedizin

Im Projekt „Embodied Perceptions“ unter Leitung des AIT Center for Technology Experience wird das Thema Schmerzen ganzheitlich und gendersensibel betrachtet: Das Projektteam forscht zu Möglichkeiten, subjektives Schmerzempfinden über 3D-Avatare zu visualisieren. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*