Stromsparen im Rechenzentrum

Rechenzentren gehören zu den größten Energieverbrauchern der Welt. Angesichts der aktuellen Energiekrise haben sich die EU-Energieminister beginnend mit dem 1. Dezember auf eine Stromverbrauchsreduktion um mindestens fünf Prozent geeinigt. Was ist jetzt zu tun? [...]

Mehr Daten erfordern eine leistungsfähigere Hardware. (c) Pixabay

Mit dem 1. Dezember gilt für die EU-Staaten die Vorgabe des Europäischen Rats (= Zusammenkunft von Fachministern) freiwillig zehn Prozent des Brutto-Stromverbrauchs und verbindlich fünf Prozent des Stromverbrauchs in Spitzenzeiten einzusparen. Im Bereich der IT sind hier vor allem Rechenzentren gefragt, energiesparende Maßnahmen zu setzen. Gleichzeitig sorgt die Digitalisierung für eine starke Zunahme der zu verabeitenden Daten.

Grundsätzlich gibt es zwei Möglichkeiten, den Stromverbrauch zu reduzieren: man verwendet stromsparendere Hardware-Komponenten oder man erhöht die Effizienz der Verwaltung der Rechenressourcen, um weniger Energie zu verbrauchen. Am besten macht man beides gleichzeitig.

Energiesparende Komponenten

Mehr Daten erfordern leistungsfähigere Hardware. Dabei ist bei Servern eine allgemeine Steigerung des Stromverbrauchs durch leistungsfähigere Hardware zu beobachten. Accelerator Cards können gar Hunderte von Watt mehr verbrauchen. Beim Senken des Energieverbrauchs geht es jedoch nicht nur um Kostenreduktion, sondern auch um Nachhaltigkeit, wie Justin Emerson, Technical Evangelist bei Pure Storage, anmerkt: »De facto stellt der Stromverbrauch heute in den meisten modernen Rechenzentren einen der größten laufenden, wiederkehrenden Kostenfaktoren dar. Dies steht in direktem Widerspruch zu den Zielen von Unternehmen (und in einigen Fällen auch zu den gesetzlichen Vorschriften), die Emissionen von Kohlendioxid zu reduzieren und den ökologischen Fußabdruck zu verkleinern. Angesichts dieser Situation werden Entscheidungen über die Gestaltung von Rechenzentren oft mehr von Energieproblemen bestimmt als von jedem anderen Faktor.«

Hier ergeben sich unangenehme Fragen, wie jene, ob und wann man Kompromisse bei der Energieeffizienz eingeht, um die Leistung weiter zu steigern. Doch es gibt auch Bereiche, wo neue Komponenten helfen, den Stromverbrauch zu senken: Flash-Speicher sind pro Terabyte weitaus effizienter als klassische, sich drehende Festplatten (HDDs). Damit kann gleichzeitig der Stromverbrauch eines Rechenzentrums gesenkt und die Leistung, Dichte und Effizienz der Speichersysteme erhöht werden.

Effizienz erhöhen

So hilfreich der Umbau auf FlashSpeicher auch ist, darf man nicht vergessen, dass laut dem auf Energie- und Klimafragen spezialisierten US-amerikanischem Thinktank Energy Innovation Rechenhardware und die dazugehörige Kühlung 86 Prozent der Energie eines Rechenzentrums verbrauchen, während »nur« elf Prozent auf die Speicherung und drei Prozent auf das Netzwerk entfallen.

Das deutsche Technologie-Unternehmen und Anbieter einer Open-Source-Kubernetes-Plattform, Kubermatic, weist darauf hin, dass trotz intelligenter Energieeinsparungen seitens der Chiphersteller dennoch etwa 50 Prozent der in einem Rechenzentrum verbrauchten Energie durch Rechenleistung im Leerlauf verschwendet wird. Und auch Hardware im Leerlauf benötigt immer noch Strom und Kühlung, was bedeutet, dass die im Leerlauf verbrauchte Energie 43 Prozent des Gesamtverbrauchs ausmacht. Für Kubermatic kommt es auf die Effizienz einer IT-Plattform an. So kann nach Recherchen des Unternehmens durch intelligente und effiziente Orchestrierung von Containern der Stromverbrauch um 33 Prozent gesenkt werden.

Es gibt Forschungsarbeiten, die zeigen, wie die Auslastung von Rechenzentren durch den Betrieb virtueller Maschinen mit speziell für diesen Fall geeigneten Algorithmen optimiert werden kann. Das stimmt zwar, doch verweist Kubermatic auf grundlegende Unterschiede zwischen Virtualisierung und Containerisierung, vor allem in der Art und Weise, wie man mit Arbeitslasten und der Bereitstellung einer Anwendung umgeht. Das Image einer virtuellen Maschine (VM) wird zum Beispiel in Gigabyte gemessen und bewegt sich in der Regel im ein- bis zweistelligen Bereich. Ein typischer Container hingegen wird in zwei- oder dreistelligen Megabyte-Größen gemessen, in seltenen Fällen auch in einstelligen Gigabyte-Größen. Das bedeutet, dass eine VM um einen Faktor zwischen fünf und 25 mehr Ressourcen benötigt als ein Container.

Außerdem kann ein Container in Kubernetes ein Limit für die Rechenleistung erhalten. Kubernetes ist in der Lage, eine CPU in 1.000 Teile aufzuteilen, und typische Grenzen liegen zwischen 150 und 1.000 Teilen für eine containerisierte Bereitstellung. Eine VM reserviert jedoch immer eine volle CPU, also 1.000 von 1.000 Teilen, auch wenn sie nicht immer die volle CPU benötigt.

Der wichtigste Vergleich zwischen diesen Technologien läuft unweigerlich auf Energie und Dichte hinaus, da diese Kennzahlen die Effizienz und damit die Kosten widerspiegeln. Eine Vergleichsstudie von Ismael Cuadrado-Cordero, Anne-Cécile Orgerie, Jean-Marc Menaud kam zu dem direkten Ergebnis, dass »Docker (Container) die Ausführung von bis zu 21 Prozent mehr Diensten als KVM ermöglicht«. Diese Zahlen werden durch die Schlussfolgerung zur Gesamtenergieeffizienz laut der Studie noch übertroffen: »Auf der Ebene des Rechenzentrums könnten dieselben Rechenlasten mit weniger Servern und weniger Energie pro Server ausgeführt werden, was insgesamt eine Energieeinsparung von 28 Prozent im Rechenzentrum bedeutet.«


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*