Erhöhter Energiebedarf durch KI: Vier Ansatzpunkte für energieeffiziente Rechenzentren

Der IT-Infrastrukturanbieter KAYTUS zeigt auf, mit welchen Schritten die Optimierung der IT-Infrastruktur dabei helfen kann, den Energieverbrauch zu senken und somit Nachhaltigkeitsziele zu unterstützen. [...]

Da die IT ein immer größerer Energiefaktor in Unternehmen wird, schreibt eine neue Energieeffizienzrichtlinie der EU vor, dass Rechenzentren jedes Jahr einen Bericht zur Energieeffizienz veröffentlichen müssen, falls ihr IT-Strombedarf 100 Kilowatt übersteigt. (c) stock.adobe.com/CHA

Laut aktueller Prognosen werden Rechenzentren bis zum Jahr 2030 für etwa 3,2 Prozent des gesamten Strombedarfs in der EU verantwortlich sein. Im Vergleich zu 2018 entspricht dies einem Anstieg von ganzen 18,5 Prozent. Hauptgrund dafür sind die höheren Rechenleistungen, aufgrund von komplexen Anwendungen aus Bereichen wie KI, maschinellem Lernen (ML) oder IoT. Das macht die IT einerseits zu einem größeren Kostenfaktor – andererseits behindert sie das Erreichen von Nachhaltigkeitszielen, die sich Unternehmen aufgrund von gesetzlichen Vorgaben oder Versprechen an ihre Shareholder und Kunden gesetzt haben. Der IT-Infrastrukturanbieter KAYTUS zeigt auf, mit welchen Schritten die Optimierung der IT-Infrastruktur dabei helfen kann, den Energieverbrauch zu senken und somit Nachhaltigkeitsziele zu unterstützen.

Der Energiebedarf von Servern sowie die Leistungsdichte von Computerchips und Serverknoten steigt durch komplexe Rechenanforderungen weiter an. Die Energieaufnahme von KI-Chips ist bereits von 500 Watt auf 700 Watt gestiegen und soll bald bei über tausend Watt liegen. Solche Faktoren beeinflussen auch die Anforderungen an die Wärmeableitung der Gesamtsysteme. Da die IT ein immer größerer Energiefaktor in Unternehmen wird, schreibt eine neue Energieeffizienzrichtlinie der EU vor, dass Rechenzentren jedes Jahr einen Bericht zur Energieeffizienz veröffentlichen müssen, falls ihr IT-Strombedarf 100 Kilowatt übersteigt. Welche Schritte empfehlen sich also für Unternehmen, um den Stromverbrauch von Rechenzentren zu minimieren und „Green Computing“-Konzepte umzusetzen?

Prüfen, ob sich Flüssigkeitskühlung eignet

Ein großer Effekt, lässt sich durch eine sogenannte Kaltplatten-Flüssigkühlung (“Cold Plate Liquid Cooling”) erzielen. Diese eignet sich besonders für Komponenten mit hohem Stromverbrauch. Dazu zählen beispielsweise Prozessoren, Speicher und Spannungsregler, die meist für mehr als 80 Prozent des Stromverbrauchs im Rechenzentrum verantwortlich sind. Der Einsatz entsprechender Lösungen kann den Stromverbrauch auf der gesamten Serverebene effektiv reduziert, da moderne Flüssigkühlmodule mit einer Vielzahl gängiger Kühlungsanschlüsse kompatibel sind.

Eine fortschrittliche Kaltplatten-Flüssigkühlung kann den Kühlbedarf eines 1.000-Watt-Chips abdecken und somit den Wärmeaustausch von 100 kW in einem einzigen Serverschrank ermöglichen. Rack-Systeme mit Flüssigkühlung erzielen so in der Regel neben einer höheren Rechendichte eine deutlich verbesserte Energieeffizienz. Je nach System kann im Vergleich zu Systemen mit herkömmlicher Luftkühlung eine um 50 Prozent höhere Wärmeableitungseffizienz sowie ein 40 Prozent niedrigerer Stromverbrauch erzielt werden. Moderne flüssigkeitsgekühlte Server unterstützen auch hohe Temperaturen der eintretenden Kühlflüssigkeit von bis zu 45°C, wobei der Primärkreislauf die Flüssigkeitszufuhr von Tower-Gehäusen mit natürlicher Zugluftkühlung erlaubt. Diese Systeme sind für einen effizienten Betrieb bei einer Umgebungstemperatur von bis zu 45°C ausgelegt und reduzieren den Energieverbrauch im Rechenzentrumsbetrieb erheblich.

Allerdings eignet sich Kaltplatten-Flüssigkühlung nicht für jede Systemumgebung. Es empfiehlt sich daher zunächst eine Prüfung der IT-Infrastruktur und je nach Gegebenheiten eine Mischung von Luft- und Flüssigkeitskühlung.

Strukturelle Designanpassungen auf Hardware-Ebene

Eine Optimierung des strukturellen Designs von Hardware-Komponenten wie Radiatoren, Lüftern und Luftkanälen kann ebenfalls einen großen Beitrag dazu leisten, die Effizienz der Wärmeableitung zu verbessern.

Verbesserte Front- und Heckeinlässe bei Lüftern können einen gleichmäßigeren und um bis zu 15 Prozent höheren Luftstrom erzielen. Auch die Motoreffizienz, die Materialien und die interne Struktur der Lüfter beeinflussen das Volumen des Luftstroms und damit die Kühlleistung. Ein geringerer Strömungswiderstand in den Luftkanälen stabilisiert den Luftstrom und erhöht die Effizienz. Damit kann die Wärmeableitungseffizienz um mehr als 30 Prozent verbessert werden.

Die Wärmeableitungseffizienz eines kompletten Serversystems lässt sich durch den Einsatz spezieller Kühlkörper sowie Techniken wie eine optimierte oder T-förmige Wärmeableitung, eine Siphon-Wärmeableitung, Kaltplatten-Wärmeableitung, etc., um mehr als 24 Prozent verbessern.

Energiesparmaßnahmen über Software-Komponenten

Maßnahmen zum Energieeinsparen bei Software-Komponenten, beispielsweise die energie-basierte Steuerung einzelner Festplatten oder eine intelligente Geschwindigkeitsanpassung und Stromverbrauchsbegrenzung, können dazu beitragen, den Stromverbrauch von Servern um mehr als 15 Prozent zu senken.

Durch eine automatische Anpassung einzelner Festplatten and die Wärmeableitungsstrategie, eine Steuerung für das Ein- und Ausschalten einzelner Festplatten über CPLD und eine Beschränkung des Systemdurchsatzes auf wenige, Festplatten – während andere in den Ruhezustand versetzt werden – können IT-Verantwortliche bis zu 70 Prozent des Stromverbrauchs einsparen.

Eine Echtzeit-Auswertung der über Sensoren erfassten Temperaturinformationen sowie eine dezentrale intelligente Steuerungstechnologie können dabei helfen, die Lüftergeschwindigkeit in verschiedenen Luftkanälen anzupassen. So werden auch über Software und Datenanalyse eine energiesparende Regulierung der Lüftergeschwindigkeit und eine präzise Luftzufuhr unterstützt.

Ressourcenverbrauch von Applikationen steuern

Um den Ressourcenverbrauch von Endanwendungen zu senken, können IT-Teams die Arbeitslasten von Servern optimieren. Damit lässt sich die GPU/CPU-Auslastung erhöhen und eine Konsolidierung auf weniger Servern wird möglich. Für eine maximale GPU-Auslastung eignen sich Strategien für das Pooling von Rechenleistung und eine granulare Aufteilung von Rechenressourcen. Die Auslastung einer so optimierten Cluster-Rechenleistung kann auf über 70 Prozent steigen.

Eine asynchrone Abfrage, mit der aktive Zyklen batteriebetriebener Geräte bei intermittierenden Datenübertragungen minimiert werden, ist eine weitere Strategie zur Ressourcenschonung. Auf diese Weise kann die aktive Kommunikationszeit minimiert und der Gesamtstromverbrauch – verglichen mit einer kontinuierlichen Abfrage in festen Intervallen – gesenkt werden.

„Um eine höhere Effizienz der Rechenleistung – von der Erzeugung über die Übertragung bis hin zur Anwendung – zu erzielen, ist es notwendig, die Rechenzentrumsstruktur regelmäßig zu prüfen und zu verbessern. Es gibt dabei viele Ansatzpunkte für Green Computing, die idealerweise ineinandergreifen sollten“, erklärt Clark Li, Country Manager von KAYTUS für die DACH-Region. „Systemhersteller für IT-Infrastruktur können dazu beitragen, indem sie das Design ihrer Systemarchitektur, die Wärmeableitung und die Leistungsoptimierung ebenfalls kontinuierlich testen und verbessern. Damit kann die erzeugte Rechenleistung besser direkt auf der Anwendungsebene eingesetzt werden, um Rechenressourcen effizienter zu nutzen. Gleichzeitig lässt sich so der Energiebedarf der Server reduzieren. Das denkt die Energiekosten und trägt außerdem dazu bei, Nachhaltigkeitsziele umzusetzen und entsprechende Vorgaben einzuhalten.“


Mehr Artikel

Be the first to comment

Leave a Reply

Your email address will not be published.


*