Energieeffiziente und hitzefeste Rechenzentren

Steigende Stromkosten und lange Hitzewellen verteuern den Betrieb von Rechenzentren, da die eingesetzte Hardware niedrige Betriebstemperaturen verlangt. Wie man Rechenzentren fit für heiße Tage macht, weiß Speicher-Experte Markus Grau. [...]

Markus Grau ist Principal Technology Strategist bei Pure Storage. (c) Pure Storage
Markus Grau ist Principal Technology Strategist bei Pure Storage. (c) Pure Storage

Klar ist, der steigende Bedarf an Speicherressourcen und Rechenleistung in Rechenzentren treibt den Kühlungsbedarf und damit auch die Stromkosten in die Höhe. Das Problem ist, dass es „zwar viele Highend-Technologien gibt, die bei der Kühlung von Komponenten helfen können, aber diese sind oft schwer zu implementieren oder sie müssen in bestehenden Rechenzentren nachgerüstet werden“, weiß Markus Grau, Principal Technology Strategist bei Pure Storage. Dass Gebäude bei der Klimatisierung auf Sachen wie Schläuche zurückgreifen müssen, um sicherzustellen, dass HVAC-Systeme (Heating, Ventilation and Air Conditioning) mit der Kühlung zurechtkommen, sei beunruhigend, meint Grau. Natürlich könne nicht jeder Rechenzentren in kälteren Gegenden bauen, was viel zur Reduktion der Kühllast beitragen würde. Wichtig sei jedenfalls eine stabile Stromversorgung sowie Backup-Generatoren für den Notfall und entsprechende Vorsorgepläne. Markus Grau nennt drei Strategien, die miteinander kombiniert helfen, den Strom- und Kühlungsbedarf von Data Centers zu senken.

• Effizientere Lösungen: Jedes Stück Hardware verbraucht Energie und erzeugt Wärme. Unternehmen sollten energieeffiziente Hardware wählen, die auf einer kleineren Fläche im Rechenzentrum mehr leisten kann, und derart Temperaturen und damit Kühlkosten senkt. In der Welt der Datenspeicherung und -verarbeitung werden zum Beispiel die Kapazität pro Watt und die Performance pro Watt als wesentliche Kennzahlen bewertet. Da die Datenspeicherung einen beträchtlichen Teil der Hardware in Rechenzentren ausmacht, kann eine Aufrüstung auf effizientere Systeme den kompletten Energie- und Kühlungsbedarf des gesamten Rechenzentrums erheblich reduzieren.

• Getrennte Architekturen: Viele Anbieter sprechen von der Wirksamkeit, Rechen- und Speichersysteme in einer Hyperconverged Infrastructure (HCI) miteinander zu verbinden. Das ist richtig, aber diese Effizienz hat vor allem mit der schnellen Bereitstellung dieser Lösungen und der Reduzierung der daran beteiligten Teams zu tun. Es geht nicht unbedingt um Energieeffizienz allein. Tatsächlich wird bei Direct Attached Storage (DAS) und hyperkonvergenten Systemen viel Energie verschwendet. So wachsen die Anforderungen an Rechen- und Speicherleistung selten in gleichem Maße. Wenn Rechen- und Speicherkomponenten voneinander getrennt werden, ist es einfacher, die Gesamtzahl der benötigten Infrastrukturkomponenten zu reduzieren – und damit auch den Energie- und Kühlungs-bedarf zu senken. Darüber hinaus neigen DAS- und HCI-Lösungen dazu, Infrastruktur-Silos zu schaffen, wobei ungenutzte Kapazitäten in einem Cluster sich nur sehr schwer anderen Clustern zur Verfügung stellen lassen.

• Just-in-Time-Provisioning: Der alte Ansatz der Bereitstellung von Ressourcen auf der Grundlage der Anforderungen der nächsten drei bis fūnf Jahre ist nicht mehr zweckmäßig und lässt Unternehmen am Ende mit weit mehr Infrastruktur zurück, als sie unmittelbar benötigen. Stattdessen können sie mit modernen On-Demand-Verbrauchsmodellen und automatisierten Bereitstellungs-Tools die Infrastruktur in ihren Rechenzentren im Laufe der Zeit problemlos aufrüsten. Die Infrastruktur wird »just-in-time« und nicht »just-in-case« bereitgestellt, so dass keine Komponenten mehr mit Strom versorgt und gekühlt werden müssen, die erst Monate oder sogar Jahre später benötigt werden.

Die Aufgabe ist, so Grau, Maßnahmen zu ergreifen, um das Gerätevolumen, die Wärmeentwicklung und den Energieverbrauch zu reduzieren sowie die Betriebskosten zu senken – und das möglichst gleichzeitig. 


Mehr Artikel

News

KI ist das neue Lernfach für uns alle

Die Mystifizierung künstlicher Intelligenz treibt mitunter seltsame Blüten. Dabei ist sie weder der Motor einer schönen neuen Welt, noch eine apokalyptische Gefahr. Sie ist schlicht und einfach eine neue, wenn auch höchst anspruchsvolle Technologie, mit der wir alle lernen müssen, sinnvoll umzugehen. Und dafür sind wir selbst verantwortlich. […]

Case-Study

Erfolgreiche Migration auf SAP S/4HANA

Energieschub für die IT-Infrastruktur von Burgenland Energie: Der Energieversorger hat zusammen mit Tietoevry Austria die erste Phase des Umstieges auf SAP S/4HANA abgeschlossen. Das burgenländische Green-Tech-Unternehmen profitiert nun von optimierten Finanz-, Logistik- und HR-Prozessen und schafft damit die Basis für die zukünftige Entflechtung von Energiebereitstellung und Netzbetrieb. […]

FH-Hon.Prof. Ing. Dipl.-Ing. (FH) Dipl.-Ing. Dr. techn. Michael Georg Grasser, MBA MPA CMC, Leiter FA IT-Infrastruktur der Steiermärkischen Krankenanstaltengesellschaft m.b.H. (KAGes). (c) © FH CAMPUS 02
Interview

Krankenanstalten im Jahr 2030

Um sich schon heute auf die Herausforderungen in fünf Jahren vorbereiten zu können, hat die Steiermärkische Krankenanstaltengesellschaft (KAGes) die Strategie 2030 formuliert. transform! sprach mit Michael Georg Grasser, Leiter der Fachabteilung IT-Infrastruktur. […]

News

Risiken beim Einsatz von GenAI in vier Schritten senken

Die Themen Datenschutz und Modellverwaltung sind in der Datenwissenschaft zwar nicht neu, doch GenAI hat ihnen eine neue Dimension der Komplexität verliehen, die Datenschutzbeauftragte vor neue Herausforderungen stellt. Die Data-Science-Spezialisten von KNIME haben die Potenziale und Risiken der KI-Nutzung beim Einsatz bei der Datenarbeit zusammengefasst und empfehlen vier Schritte zur Risikominimierung. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*