Gastkommentar: Das Rechenzentrum der nächsten Generation

Virtualisierung hat in den letzten Jahren die IT in den Rechenzentren dramatisch verändert. Mit dem Konzept des Software-Defined Datacenter steht nun die nächste große Veränderung der Rechenzentrums-Infrastruktur an. [...]

Geschäftsbereiche benötigen heutzutage schnellen Zugriff auf IT-Ressourcen, um ihre Projekte schneller am Markt einführen zu können. Die IT muss diese Anforderung erfüllen und gleichzeitig sicherstellen, dass das Rechenzentrum vollständig verwaltet und abgesichert ist. Das Software-Defined Datacenter (SDDC) ist eine vereinheitlichte Rechenzentrumsplattform, mit der Unternehmen von neuen Bereitstellungsmechanismen ihrer IT profitieren. Möglich wird das dank eines Höchstmaß an Automatisierung, Flexibilität und Effizienz. Da Rechenzentrumsservices nicht mehr an spezielle Hardware und deren Beschränkungen gebunden sind, können die Komplexität und Inflexibilität herkömmlicher IT-Infrastrukturen überwunden werden. Computing-, Storage- und Netzwerk-, Sicherheits- und Verfügbarkeitsservices werden in Pools zusammengefasst, aggregiert als Software bereitgestellt und von intelligenter, richtliniengesteuerter Software verwaltet. Das Ergebnis ist ein für das Cloud-Zeitalter optimiertes Rechenzentrum, das geschäftliche Flexibilität, höchste SLAs für alle Anwendungen, einen einfacheren Betrieb und niedrigere Kosten realisiert.

Im Laufe der Jahre haben sich Rechenzentren zu weitgehend fragmentierten Umgebungen entwickelt, in denen verschiedenste proprietäre Softwareanwendungen isoliert auf speziellen Hardwarekomponenten ausgeführt werden. Virtualisierung war der erste Schritt hin zu einer Vereinfachung dieser komplexen und starren Infrastruktur.
Da die Abläufe in Rechenzentren weiterhin zum Großteil durch die Abhängigkeit zwischen Software und spezieller Hardware eingeschränkt sind, steht die Entwicklung von einfacheren und flexibleren Lösungen für die IT nach wie vor an erster Stelle.

Drei Trends treiben diese Entwicklung maßgeblich voran:

– Zunehmende Bedeutung von Cloud Computing
Durch die erfolgreiche Auslagerung von Anwendungen und Infrastrukturen, beispielsweise in Form von Software as a Service (SaaS) und bedarfsorientierten Public Cloud-Services, hat sich der Druck auf die IT-Abteilungen erhöht, interne Lösungen bereitzustellen, mit denen die gleichen oder sogar noch bessere Ergebnisse in den Bereichen Effizienz, Kosteneinsparungen und SLAs erzielt werden können.

– Abnehmenden Kosten für die reine Rechenleistung

Die heutigen auf dem Industriestandard x86 basierenden Server bieten eine Leistung, die denen von herkömmlichen proprietären Mainframes gleichzusetzen ist, allerdings zu einem Bruchteil der Kosten. Netzwerk- und Storage-Ressourcen können heute auf kostengünstiger Allzweck-Hardware bereitgestellt werden, wodurch der Einsatz von kostenintensiven, proprietären und monolithischen Maschinen nicht mehr erforderlich ist.

– Neue Anwendungsarchitekturen und Big Data

Moderne Anwendungen sind mehr und mehr auf das Internet, soziale Netzwerke und mobile Geräte ausgelegt. Sie sind darauf ausgelegt, extrem große Datenmengen mit Geschwindigkeiten und Latenzzeiten zu verarbeiten, die herkömmliche Storage-Architekturen nicht bieten können. Auch dies ist einer der Gründe, warum Unternehmen nach neuen Lösungen für ihre Rechenzentrumsinfrastruktur suchen.

Das Konzept des Software-Defined Datacenters liegt nicht darin, die Inflexibilität spezieller Hardware durch verschiedenste überarbeitete Skripts zu kaschieren. Ziel dieser Umgebungen ist vielmehr, die Einschränkungen herkömmlicher Infrastrukturen zu überwinden, um neue Möglichkeiten für die Bereitstellung sämtlicher Rechenzentrumsservices zu bieten.

Die Virtualisierungsprinzipien Pooling, Abstrahierung und Automatisierung werden hierbei auf die Bereiche Storage, Netzwerk, Sicherheit und Verfügbarkeit übertragen. Diese Services werden zusammengefasst und mit intelligenten, richtlinienbasierten Bereitstellungs-, Automatisierungs- und Überwachungsfunktionen kombiniert. Durch APIs und weitere Konnektoren ist eine nahtlose Erweiterung zu Drittanbieterplattformen und Public Cloud-Services möglich.

Die wichtigsten Eigenschaften des Software-Defined Datacenters sind unter anderem:

– Standardisierung: Die homogene Infrastruktur wird mit Pools aus Standard-x86-Hardware bereitgestellt, was unnötige Komplexität vermeidet.

– Ganzheitlichkeit: Die einheitliche Plattform ist für die gesamte Rechenzentrums-Fabric optimiert und unterstützt sämtliche Workloads.

– Adaptiv: Eine selbstprogrammierbare Infrastruktur konfiguriert die Umgebung abhängig von sich ändernden Anwendungsanforderungen, um einen maximalen Durchsatz, Agilität und Effizienz zu erzielen.

– Automatisierung: Das Management-Framework eliminiert auf intelligente Weise komplexe und instabile Skripts, damit der Betrieb auf Cloud-Ebene kostengünstiger und mit weniger manuellen Eingriffen abläuft.

– Stabilität: Die auf Software basierende Architektur kann Hardwareausfälle ausgleichen und ermöglicht somit eine unübertroffene Ausfallsicherheit zu geringen Kosten.

Das Software-Defined Datacenter ist der nächste Schritt in der Evolution der IT, und der bei weitem effektivste, stabilste und kosteneffizienteste Ansatz zur Cloud-Infrastruktur.

*  Alexander Spörker ist Country Manager von VMware Österreich.


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*