Steigende Stromkosten und lange Hitzewellen verteuern den Betrieb von Rechenzentren, da die eingesetzte Hardware niedrige Betriebstemperaturen verlangt. Wie man Rechenzentren fit für heiße Tage macht, weiß Speicher-Experte Markus Grau. [...]
Klar ist, der steigende Bedarf an Speicherressourcen und Rechenleistung in Rechenzentren treibt den Kühlungsbedarf und damit auch die Stromkosten in die Höhe. Das Problem ist, dass es „zwar viele Highend-Technologien gibt, die bei der Kühlung von Komponenten helfen können, aber diese sind oft schwer zu implementieren oder sie müssen in bestehenden Rechenzentren nachgerüstet werden“, weiß Markus Grau, Principal Technology Strategist bei Pure Storage. Dass Gebäude bei der Klimatisierung auf Sachen wie Schläuche zurückgreifen müssen, um sicherzustellen, dass HVAC-Systeme (Heating, Ventilation and Air Conditioning) mit der Kühlung zurechtkommen, sei beunruhigend, meint Grau. Natürlich könne nicht jeder Rechenzentren in kälteren Gegenden bauen, was viel zur Reduktion der Kühllast beitragen würde. Wichtig sei jedenfalls eine stabile Stromversorgung sowie Backup-Generatoren für den Notfall und entsprechende Vorsorgepläne. Markus Grau nennt drei Strategien, die miteinander kombiniert helfen, den Strom- und Kühlungsbedarf von Data Centers zu senken.
• Effizientere Lösungen: Jedes Stück Hardware verbraucht Energie und erzeugt Wärme. Unternehmen sollten energieeffiziente Hardware wählen, die auf einer kleineren Fläche im Rechenzentrum mehr leisten kann, und derart Temperaturen und damit Kühlkosten senkt. In der Welt der Datenspeicherung und -verarbeitung werden zum Beispiel die Kapazität pro Watt und die Performance pro Watt als wesentliche Kennzahlen bewertet. Da die Datenspeicherung einen beträchtlichen Teil der Hardware in Rechenzentren ausmacht, kann eine Aufrüstung auf effizientere Systeme den kompletten Energie- und Kühlungsbedarf des gesamten Rechenzentrums erheblich reduzieren.
• Getrennte Architekturen: Viele Anbieter sprechen von der Wirksamkeit, Rechen- und Speichersysteme in einer Hyperconverged Infrastructure (HCI) miteinander zu verbinden. Das ist richtig, aber diese Effizienz hat vor allem mit der schnellen Bereitstellung dieser Lösungen und der Reduzierung der daran beteiligten Teams zu tun. Es geht nicht unbedingt um Energieeffizienz allein. Tatsächlich wird bei Direct Attached Storage (DAS) und hyperkonvergenten Systemen viel Energie verschwendet. So wachsen die Anforderungen an Rechen- und Speicherleistung selten in gleichem Maße. Wenn Rechen- und Speicherkomponenten voneinander getrennt werden, ist es einfacher, die Gesamtzahl der benötigten Infrastrukturkomponenten zu reduzieren – und damit auch den Energie- und Kühlungs-bedarf zu senken. Darüber hinaus neigen DAS- und HCI-Lösungen dazu, Infrastruktur-Silos zu schaffen, wobei ungenutzte Kapazitäten in einem Cluster sich nur sehr schwer anderen Clustern zur Verfügung stellen lassen.
• Just-in-Time-Provisioning: Der alte Ansatz der Bereitstellung von Ressourcen auf der Grundlage der Anforderungen der nächsten drei bis fūnf Jahre ist nicht mehr zweckmäßig und lässt Unternehmen am Ende mit weit mehr Infrastruktur zurück, als sie unmittelbar benötigen. Stattdessen können sie mit modernen On-Demand-Verbrauchsmodellen und automatisierten Bereitstellungs-Tools die Infrastruktur in ihren Rechenzentren im Laufe der Zeit problemlos aufrüsten. Die Infrastruktur wird »just-in-time« und nicht »just-in-case« bereitgestellt, so dass keine Komponenten mehr mit Strom versorgt und gekühlt werden müssen, die erst Monate oder sogar Jahre später benötigt werden.
Die Aufgabe ist, so Grau, Maßnahmen zu ergreifen, um das Gerätevolumen, die Wärmeentwicklung und den Energieverbrauch zu reduzieren sowie die Betriebskosten zu senken – und das möglichst gleichzeitig.
Be the first to comment