Die Renaissance der Rechenzentren

Befeuert von Trends wie Cloud und Edge-Computing erweist sich das Rechenzentrum als quicklebendig und wachstumsstark. Doch unterliegt diese Form der IT-Infrastruktur einem tiefgreifenden Wandel. [...]

Rechenzentrumslandschaft wird diverser

Die umwälzende, von Gartner 2019 angekündigte Re­chenzen­trumsrevolution ist bislang ausgeblieben. Bereits 2020 rūckte das Analystenhaus denn auch wieder etwas ab von seiner steilen These, wie die Studie „Your Data Center May Not Be Dead, but It’s Morphing“ vom September 2020 zeigt, in der der Begriff „Hybrid Digital Infrastructure Management (HDIM)“ geprägt wurde. Auch die Analysten der Enterprise Strategy Group (ESG) sprechen in einer Studie vom Mai 2020 von „Hybrid Cloud Trends“.

Die Entwicklung hin zu einer neuen Diversität wird auch deutlich, wenn man sich die wesentlichen Merkmale einer Cloud-Installation näher ansieht. Wenn Unternehmen Teile oder die komplette Ausrüstung für ihre Daten und Workloads in ein Cloud-Rechenzentrum auslagern, dann befinden sich diese in physischen Infrastrukturen, wie man sie in den klassischen Rechenzentren von Unternehmen vorfindet – allerdings nicht mehr exklusiv, sondern mit denen von anderen Unternehmenskunden.

Der Begriff Cloud bezeichnet den Umstand, dass solche zentralen Rechenzentren irgendwo anders stehen und über zugewiesene, spezielle oder allgemein zugängliche Internetleitungen mit dem Unternehmenssitz verbunden sind. Sie können sich in der gleichen Region, innerhalb eines Landes oder irgendwo auf dem Globus befinden – je nachdem, wie es die Vorgaben des jeweiligen Staates erlauben.

In dieser Standortlogik kommt den Leitungen zwischen Kunden und Rechenzentrumsbetreibern eine neue Bedeutung zu: Ihr Sicherheitsstatus muss gewährleistet sein, sie können sich aber in der Praxis auch als Einfallstor für Attacken von Cyberkriminellen er­weisen.

Zu den Vorteilen für den Kunden zählt, dass er sich nicht mehr selbst um Bau, Betrieb, Energieversorgung, Fachleute und physische Sicherheit seines Rechenzen­trums zu kümmern braucht. Dafür trägt der Cloud-Provider die Verantwortung, ebenso wie für alle Komponenten auf Applikations- und Datenseite – Komfort gegen bare Mūnze, je nach Ausgestaltung der individuellen Verträge.

Die Cloud-Betreiber wiederum stellen für die gemeinsame Nutzung ihrer Anlagen eine virtuelle Aufteilung ihrer Server- und Storage-Ressourcen zur Verfügung – mittels virtueller Maschinen (VMs) oder gegen Aufpreis durch einen dedizierten exklusiven Ressourcenzugang. Diese Möglichkeiten unterscheiden sich je nach Provider.

Zu den prinzipiellen Vorteilen einer Public Cloud gehört die gemeinsame Nutzung von Ressourcen. Unternehmen müssen nicht mehr alles an Gebäuden und Installationen aus eigener Tasche bezahlen, sondern nur einen individuellen Anteil. Bei Erweiterungen oder Reduzierungen greifen Vertragsklauseln, die Kunden können varia­bler (und billiger) reagieren, die eigenen Kapitalausgaben gestalten sich kostengünstiger und Ausstattung und Anforderungen an ein eigenes IT-Team fallen geringer aus.

Erwartungen: mehr Fläche, mehr Server und auch mehr Stromverbrauch.
(Quelle: Borderstep)

Die Kehrseite der Medaille: Die Kunden geben die Durchfūhrung und Planung von IT-Prozessen weitgehend aus der Hand – ein Prozess, der sich auch bei anderen Teilbereichen einer modernen Unternehmensführung findet: Ausgliederung von Prozessen wie Schreibbüros, Lager, Transportmittel oder Abwicklung von Steuerunterlagen. Insofern folgen zentrale Cloud-Rechenzentren einer allgemeinen Entwicklung der Auslagerung von Services und Technologien.

Problematisch bleibt die mangelnde Übersicht der Kunden über „ihre“ Bestandteile der Infrastruktur im Rechenzentrum des Dienstleisters. Werden sie tatsächlich, wie in den Prospekten und vertragsmäßig versprochen, fortlaufend kontrolliert und erneuert? Wie konstant ist die Preisgestaltung? Was passiert genau, wenn man wieder aussteigen, zu einer eigenen IT zurückkehren oder zu einem anderen Provider wechseln möchte? Nicht zu vergessen: das abschreckende Beispiel der verheerenden Brandkatastrophe bei OVHcloud in Frankreich.

Grundlegende Prinzipien

Es ist eine Binsenweisheit, dass ohne IT heute nichts mehr geht. Auch wenn sich eine wachsende Anzahl von Unternehmen ganz oder in Teilen vom traditionellen Rechenzentrum trennt und anderen Formen von IT-Services zuwendet, hat sich an den Prinzipien der Digitalisierung von Geschäftsprozessen gar nicht so viel geändert, egal wo die Server- und Speichergeräte mit ihren Anwendungen auch stehen mögen – ob nach wie vor in einem Restrechenzentrum im eigenen Unternehmen oder an seinem Rand (am „Edge“), mit eigenen IT-Ausrüstungen und Applikationen zur Miete in einem Co-Location-Zentrum, das viele Unternehmen nebeneinander beherbergt, oder als Kunde in einem der riesigen Rechenzentren von AWS, Microsoft Azure, Google Cloud, Alibaba aus China oder einem der kleineren Anbieter wie OVHcloud aus Frankreich.

Ein Rechenzentrum ist immer noch eine physische Einrichtung – als Abteilung in einem Stockwerk oder in einem Keller des Unternehmens oder in einem eigenen Gebäude, das im Wesentlichen drei Ausstattungselemente beherbergt:

  • Server und weitere Computer-Systeme mit Memory und Rechenfunktionen für die Arbeit mit Applikationen und Daten
  • Storage mit primären und Backup-Systemen (aus Sicherheitsgründen oft an andere Orte ausgelagert). Eingesetzt werden Festplatten, Tapes und vermehrt All-Flash Arrays
  • Networking für interne und externe Verbindungen mit eigenen Geräten wie Router, Switches, Controller und Firewalls

Dazu gehören in jedem Rechenzentrumstyp noch Randelemente wie das Aufstellen und Kühlen der Server-Racks mit Parametern wie Raumtemperatur oder Luftfluss sowie das Management der Verkabelung und der Stromversorgung inklusive der Bereitstellung von Ausfallsystemen. Und zu guter Letzt kommen auch noch Gebäudesicherheit und Zugangskontrollen. All das muss ständig beobachtet, getestet – und bezahlt werden.

Fazit & Ausblick

Ganz ohne Schattenseiten ist die Verbindung Cloud und Rechenzentren nicht. Das Uptime Institute geißelte Anfang März 2022 in dem Paper „Flexibility drives cloud lock-in risk“ das „hochflexible Modell der Cloud“ als „Triebfeder für Lock-in“.

Und problematisiert den Faktor Preis: „Die Cloud war wegen ihres Preismodells revolutionär, nicht unbedingt wegen der Kerntechnologie. (…) Das Cloud-Modell setzt den Käufer unerwarteten Preissteigerungen aus (…). Bislang sind die Cloud-Preise insgesamt tendenziell gesunken – aber es gibt keine Garantie dafür, dass dies immer der Fall sein wird.“

IDC stuft Equinix, Digital Realty Trust und NTT im Co-Location- und Interconnection-Segment als führende Anbieter ein.
(Quelle: IDC)

Und noch etwas ist bei der Renaissance der Rechenzentren mitzubedenken: ihr Energiehunger. Die fortschreitende Digitalisierung aller Lebens- und Wirtschaftsbereiche bringt einen wachsenden Energieverbrauch durch immer mehr Rechenzentren mit sich, aber immerhin nutzen diese die eingesetzte Energie effizienter.

Doch das kompensiert den Mehrverbrauch nicht ganz. Das einzelne Rechenzentrum mag effizienter sein, dafür gibt es aber immer mehr und immer größere. Der Anbieter von weltweiten Rechenzentrums-Services NTT konstatiert in einem Papier vom Februar 2022 deshalb: „Rechenzentren benötigen circa 3 Prozent des in Deutschland verbrauchten Stroms.

Dabei ist sowohl die Rechenzentrumsinfrastruktur als auch die IT-Hardware in den vergangenen Jahren immer effizienter geworden, sodass sich die Zahl der installierten Work­loads pro Kilowattstunde Strom seit 2010 verfünffacht hat. Insgesamt stieg der Energiebedarf der Rechenzentren zwischen 2010 und 2020 von 10,5 auf 16 Milliarden kWh pro Jahr.

Die schnell wachsende Nachfrage nach Rechenzen­trumsdiensten wird den Energiebedarf der Branche in Zukunft weiter erhöhen.“

*Hartmut Wiehr ist Autor bei com!professional.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*