Gastkommentar: Das Rechenzentrum der nächsten Generation

Virtualisierung hat in den letzten Jahren die IT in den Rechenzentren dramatisch verändert. Mit dem Konzept des Software-Defined Datacenter steht nun die nächste große Veränderung der Rechenzentrums-Infrastruktur an. [...]

Geschäftsbereiche benötigen heutzutage schnellen Zugriff auf IT-Ressourcen, um ihre Projekte schneller am Markt einführen zu können. Die IT muss diese Anforderung erfüllen und gleichzeitig sicherstellen, dass das Rechenzentrum vollständig verwaltet und abgesichert ist. Das Software-Defined Datacenter (SDDC) ist eine vereinheitlichte Rechenzentrumsplattform, mit der Unternehmen von neuen Bereitstellungsmechanismen ihrer IT profitieren. Möglich wird das dank eines Höchstmaß an Automatisierung, Flexibilität und Effizienz. Da Rechenzentrumsservices nicht mehr an spezielle Hardware und deren Beschränkungen gebunden sind, können die Komplexität und Inflexibilität herkömmlicher IT-Infrastrukturen überwunden werden. Computing-, Storage- und Netzwerk-, Sicherheits- und Verfügbarkeitsservices werden in Pools zusammengefasst, aggregiert als Software bereitgestellt und von intelligenter, richtliniengesteuerter Software verwaltet. Das Ergebnis ist ein für das Cloud-Zeitalter optimiertes Rechenzentrum, das geschäftliche Flexibilität, höchste SLAs für alle Anwendungen, einen einfacheren Betrieb und niedrigere Kosten realisiert.

Im Laufe der Jahre haben sich Rechenzentren zu weitgehend fragmentierten Umgebungen entwickelt, in denen verschiedenste proprietäre Softwareanwendungen isoliert auf speziellen Hardwarekomponenten ausgeführt werden. Virtualisierung war der erste Schritt hin zu einer Vereinfachung dieser komplexen und starren Infrastruktur.
Da die Abläufe in Rechenzentren weiterhin zum Großteil durch die Abhängigkeit zwischen Software und spezieller Hardware eingeschränkt sind, steht die Entwicklung von einfacheren und flexibleren Lösungen für die IT nach wie vor an erster Stelle.

Drei Trends treiben diese Entwicklung maßgeblich voran:

– Zunehmende Bedeutung von Cloud Computing
Durch die erfolgreiche Auslagerung von Anwendungen und Infrastrukturen, beispielsweise in Form von Software as a Service (SaaS) und bedarfsorientierten Public Cloud-Services, hat sich der Druck auf die IT-Abteilungen erhöht, interne Lösungen bereitzustellen, mit denen die gleichen oder sogar noch bessere Ergebnisse in den Bereichen Effizienz, Kosteneinsparungen und SLAs erzielt werden können.

– Abnehmenden Kosten für die reine Rechenleistung

Die heutigen auf dem Industriestandard x86 basierenden Server bieten eine Leistung, die denen von herkömmlichen proprietären Mainframes gleichzusetzen ist, allerdings zu einem Bruchteil der Kosten. Netzwerk- und Storage-Ressourcen können heute auf kostengünstiger Allzweck-Hardware bereitgestellt werden, wodurch der Einsatz von kostenintensiven, proprietären und monolithischen Maschinen nicht mehr erforderlich ist.

– Neue Anwendungsarchitekturen und Big Data

Moderne Anwendungen sind mehr und mehr auf das Internet, soziale Netzwerke und mobile Geräte ausgelegt. Sie sind darauf ausgelegt, extrem große Datenmengen mit Geschwindigkeiten und Latenzzeiten zu verarbeiten, die herkömmliche Storage-Architekturen nicht bieten können. Auch dies ist einer der Gründe, warum Unternehmen nach neuen Lösungen für ihre Rechenzentrumsinfrastruktur suchen.

Das Konzept des Software-Defined Datacenters liegt nicht darin, die Inflexibilität spezieller Hardware durch verschiedenste überarbeitete Skripts zu kaschieren. Ziel dieser Umgebungen ist vielmehr, die Einschränkungen herkömmlicher Infrastrukturen zu überwinden, um neue Möglichkeiten für die Bereitstellung sämtlicher Rechenzentrumsservices zu bieten.

Die Virtualisierungsprinzipien Pooling, Abstrahierung und Automatisierung werden hierbei auf die Bereiche Storage, Netzwerk, Sicherheit und Verfügbarkeit übertragen. Diese Services werden zusammengefasst und mit intelligenten, richtlinienbasierten Bereitstellungs-, Automatisierungs- und Überwachungsfunktionen kombiniert. Durch APIs und weitere Konnektoren ist eine nahtlose Erweiterung zu Drittanbieterplattformen und Public Cloud-Services möglich.

Die wichtigsten Eigenschaften des Software-Defined Datacenters sind unter anderem:

– Standardisierung: Die homogene Infrastruktur wird mit Pools aus Standard-x86-Hardware bereitgestellt, was unnötige Komplexität vermeidet.

– Ganzheitlichkeit: Die einheitliche Plattform ist für die gesamte Rechenzentrums-Fabric optimiert und unterstützt sämtliche Workloads.

– Adaptiv: Eine selbstprogrammierbare Infrastruktur konfiguriert die Umgebung abhängig von sich ändernden Anwendungsanforderungen, um einen maximalen Durchsatz, Agilität und Effizienz zu erzielen.

– Automatisierung: Das Management-Framework eliminiert auf intelligente Weise komplexe und instabile Skripts, damit der Betrieb auf Cloud-Ebene kostengünstiger und mit weniger manuellen Eingriffen abläuft.

– Stabilität: Die auf Software basierende Architektur kann Hardwareausfälle ausgleichen und ermöglicht somit eine unübertroffene Ausfallsicherheit zu geringen Kosten.

Das Software-Defined Datacenter ist der nächste Schritt in der Evolution der IT, und der bei weitem effektivste, stabilste und kosteneffizienteste Ansatz zur Cloud-Infrastruktur.

*  Alexander Spörker ist Country Manager von VMware Österreich.


Mehr Artikel

News

Produktionsplanung 2026: Worauf es ankommt

Resilienz gilt als das neue Patentrezept, um aktuelle und kommende Krisen nicht nur zu meistern, sondern sogar gestärkt daraus hervorzugehen. Doch Investitionen in die Krisenprävention können zu Lasten der Effizienz gehen. Ein Dilemma, das sich in den Griff bekommen lässt. […]

Maximilian Schirmer (rechts) übergibt zu Jahresende die Geschäftsführung von tarife.at an Michael Kreil. (c) tarife.at
News

tarife.at ab 2026 mit neuer Geschäftsführung

Beim österreichischen Vergleichsportal tarife.at kommt es mit Jahresbeginn zu einem planmäßigen Führungswechsel. Michael Kreil übernimmt mit 1. Jänner 2026 die Geschäftsführung. Maximilian Schirmer, der das Unternehmen gegründet hat, scheidet per 14. April 2026 aus der Gesellschaft aus. […]

News

Warum Unternehmen ihren Technologie-Stack und ihre Datenarchitektur überdenken sollten

Seit Jahren sehen sich Unternehmen mit einem grundlegenden Datenproblem konfrontiert: Systeme, die alltägliche Anwendungen ausführen (OLTP), und Analysesysteme, die Erkenntnisse liefern (OLAP). Diese Trennung entstand aufgrund traditioneller Beschränkungen der Infrastruktur, prägte aber auch die Arbeitsweise von Unternehmen.  Sie führte zu doppelt gepflegten Daten, isolierten Teams und langsameren Entscheidungsprozessen. […]

News

Windows 11 im Außendienst: Plattform für stabile Prozesse

Das Betriebssystem Windows 11 bildet im technischen Außendienst die zentrale Arbeitsumgebung für Service, Wartung und Inspektionen. Es verbindet robuste Geräte, klare Abläufe und schnelle Entscheidungswege mit einer einheitlichen Basis für Anwendungen. Sicherheitsfunktionen, Updates und Unternehmensrichtlinien greifen konsistent und schaffen eine vertrauenswürdige Plattform, auf der sowohl Management als auch Nutzer im Feld arbeiten können. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*