8 Wege, Ihr Rechenzentrum auf den Stromverbrauch von KI vorzubereiten

Künstliche Intelligenz erfordert eine höhere Prozessordichte, was den Kühlbedarf steigert und den Energiebedarf erhöht. [...]

Künstliche Intelligenz zählt zu den Technologien der Zukunft. Doch mit dem Fortschritt kommt auch ein erhöhter Stromverbrauch, auf den Sie sich gefasst machen sollten (c) Pixabay.com

Mit dem Aufschwung der künstlichen Intelligenz in Unternehmen wird auch der Stromverbrauch im Rechenzentrum steigen. KI ist vieles, aber Energieeffizienz ist nicht dabei.

Für Rechenzentren, die typische Unternehmensanwendungen ausführen, liegt der durchschnittliche Stromverbrauch eines Racks bei etwa 7 kW. Dennoch ist es laut Rechenzentrumsorganisation AFCOM üblich, dass KI-Anwendungen mehr als 30 kW pro Rack verbrauchen. Das liegt daran, dass die KI eine viel höhere Prozessorauslastung erfordert, und die Prozessoren – insbesondere GPUs – sind energieintensiv. Nvidia-Grafikprozessoren beispielsweise können mehrere Größenordnungen schneller laufen als eine CPU, verbrauchen aber auch doppelt so viel Strom pro Chip. Erschwerend kommt hinzu, dass viele Rechenzentren bereits unter Strom stehen.

Auch die Kühlung ist ein Thema: KI-orientierte Server erfordern eine höhere Prozessordichte, d.h. mehr Chips, die in ein Gehäuse gepackt werden, und die laufen alle sehr heiß. Eine höhere Dichte bei gleichzeitig höherer Auslastung erhöht den Kühlbedarf im Vergleich zu einem typischen Backoffice-Server deutlich. Höhere Kühlanforderungen erhöhen wiederum den Energiebedarf.

Was können Sie also tun, wenn Sie künstliche Intelligenz aus Wettbewerbsgründen einführen wollen, aber die Leistungskapazität Ihrer bestehenden Anlage nicht den Anforderungen der KI an eine dichte Infrastruktur gerecht wird? Hier sind einige Optionen.

Flüssigkeitskühlung in Betracht ziehen

Die Lüfterkühlung verliert in der Regel an Rentabilität, sobald ein Rack mehr als 15 kW leistet. Wasser hat jedoch die 3.000fache Wärmekapazität von Luft, wie CoolIT Systems, ein Hersteller von Flüssigkühlprodukten für Unternehmen, berichtet. Infolgedessen haben Serverschrankhersteller ihre Schränke mit Flüssigkeitsleitungen ausgestattet und Wasserleitungen an ihre Kühlkörper anstelle von Ventilatoren angeschlossen.

„Die Flüssigkeitskühlung ist definitiv eine sehr gute Option für Lasten mit höherer Dichte“, erklärt John Sasser, Senior Vice President for Data Center Operations bei Sabey, einem Entwickler und Betreiber von Rechenzentren. „Das beseitigt das chaotische Luftzufuhrproblem. Wasser entzieht viel mehr Wärme als Luft, und Sie können es durch Rohre leiten. Eine Menge HPC (High Performance Computing) wird mit Flüssigkeitskühlung durchgeführt.“

Die meisten Rechenzentren sind für Luftkühlung konzipiert, so dass die Flüssigkeitskühlung eine Investition erfordert, „aber das könnte eine viel sinnvollere Lösung für diese Bemühungen sein, besonders wenn sich ein Unternehmen entscheidet, in Richtung KI zu gehen“, so Sasser.

Ausführen von KI-Workloads mit niedrigeren Auflösungen

Bestehende Rechenzentren könnten in der Lage sein, die Arbeitslast von KI-Berechnungen zu bewältigen, aber in reduzierter Form, meint Steve Conway, Senior Research Vice President für Hyperion Research. Viele, wenn nicht die meisten, Workloads können mit halber oder viertel Genauigkeit statt mit 64-Bit-Doppelpräzision betrieben werden.

„Bei einigen Problemen ist halbe Präzision in Ordnung“, erklärt Conway. „Führen Sie es mit geringerer Auflösung und weniger Daten aus. Oder mit weniger Wissenschaft.“

Doppelpräzise Gleitkomma-Berechnungen werden vor allem in der wissenschaftlichen Forschung benötigt, die oft auf molekularer Ebene durchgeführt wird. Doppelte Präzision wird typischerweise nicht im KI-Training oder bei der Ableitung von Deep-Learning-Modellen verwendet, da sie nicht benötigt wird. Sogar Nvidia plädiert für den Einsatz von Einzel- und Halbpräzisionsberechnungen in tiefen neuronalen Netzen.

Aufbau eines KI-Containment-Segments

Die KI wird ein Teil Ihres Unternehmens sein, aber nicht alles, und das sollte sich in Ihrem Rechenzentrum widerspiegeln. „Die neuen Anlagen, die gebaut werden, beabsichtigen, einen Teil ihrer Anlagen für einen höheren Stromverbrauch zu reservieren“, so Doug Hollidge, ein Partner von Five 9s Digital, das Rechenzentren baut und betreibt. “ Sie werden nicht alle Ihre Anlagen auf eine höhere Dichte bringen, weil es andere Anwendungen gibt, die eine geringere Auslastung erfordern.“

Das erste, was zu tun ist, ist die Energieversorgung des Gebäudes zu überprüfen, sagt Hollidge. „Wenn Sie den Energieverbrauch im Gebäude erhöhen wollen, müssen Sie sicherstellen, dass der Energieversorger die Stromzufuhr erhöhen kann.“

Holen Sie sich einen Ingenieur, um zu beurteilen, welcher Teil des Rechenzentrums am besten für Funktionen mit höherer Dichte geeignet ist. Die Anforderungen an die Auslastung bestimmen die beste Lösung, sei es durch die Eindämmung des heißen Regalgangs, die Flüssigkeitskühlung oder eine andere Technologie. „Es ist schwierig, eine Einheitslösung anzubieten, da alle Rechenzentren unterschiedlich sind“, sagt Hollidge.

Verteilen Sie Ihre KI-Systeme

Ein alternativer Ansatz – anstatt alle Ihre KI-Systeme im August an einem Ort zu platzieren, der heißer ist als das Death Valley – ist die Verteilung auf die Racks.

„Die meisten Apps haben keine hohe Dichte. Sie arbeiten mit acht bis zehn Kilowatt und bis zu 15 Kilowatt. Das kann man mit Luft bewältigen“, erklärt David McCall, Chief Innovation Officer bei QTS, einem Hersteller von Rechenzentren.

In einer optimierten heterogenen Umgebung kann ein Kollokationsanbieter ein oder zwei Racks in einem Schrank haben, um eine HPC- oder AI-Umgebung zu hosten, und der Rest der Racks im Schrank ist für das Hosten von weniger energieintensiven Anwendungen wie Datenbanken und Backoffice-Anwendungen vorgesehen. Das bringt kein 5 kW Rack hervor, aber es bringt ein Rack näher an 12 kW oder 15 kW, was eine Umgebung ist, mit der die Luftkühlung umgehen kann, so McCall.

Steuerung des Heißluftstroms im Rechenzentrum

Das Standardlayout des Rechenzentrums ist der Warmgang bzw. der Kaltgang, bei dem die Schränke in abwechselnden Reihen so angeordnet sind, dass die Kaltlufteinlässe auf einem vorderen Gang einander zugewandt sind, und die Warmluftauslässe auf dem hinteren Gang einander zugewandt sind. Das funktioniert gut, aber der Zugriff kann schwierig sein, wenn ein IT-Mitarbeiter hinter einen Schrank muss, um an einem Server zu arbeiten.

Das andere Problem ist, dass die Luft „chaotisch“ ist, wie Sasser es nannte. Energie ist oft einfacher zu modellieren, weil sie durch Leiter fließt, und Sie können steuern (und damit planen und modellieren), wohin die Energie geht. Luft geht dorthin, wo sie will und ist nur schwer zu kontrollieren.

Sabey-Kunden, die eine Umgebung mit höherer Dichte wünschen, verwenden einen Heißgang-Containment Pod zur Steuerung des Luftstroms. Das Unternehmen setzt Türen am Ende des heißen Ganges und Kunststoffplatten darüber, so dass die Wärme in ein Deckeneinlassrohr geleitet wird und die Barrieren verhindern, dass sich heiße und kalte Luft vermischen.

„In einer luftgekühlten Serverwelt ist mein Ratschlag, mit einer Umgebung zur Eindämmung des heißen Gangs zu gehen“, sagt Sasser. „Der andere Rat, den ich geben würde, ist sicherzustellen, dass das Rechenzentrum auf Luftströmung getestet wird, nicht nur auf Luftströmung ausgerichtet. Die Modellierung ist abhängig von vielen Variablen, die sich leicht ändern können.“

Erwägen Sie einen Kaminschrank

Eine weitere Möglichkeit, das Temperaturmanagement in Rechenzentren zu verbessern, besteht darin, einen Kaminschrank zu verwenden. Anstatt die heiße Luft auf der Rückseite zu entlüften, nutzt ein Kaminschrank die gute alte physikalische Konvektion, um heiße Luft in einen Schornstein zu leiten, der dann an den Lüfter einer Klimaanlage angeschlossen wird. Chatsworth Systems ist vor allem für diese Art von Schränken bekannt.

„Der Luftweg ist auf diese Weise stärker eingeschränkt“, sagt Sasser. „Da der Luftweg stärker eingeschränkt ist, kann man eine höhere Dichte in einen Schrank bringen als mit einer heißen Gangschale.“

Prozessdaten dort, wo sie sich befinden

Das Verschieben von Daten verursacht sehr hohe Energiekosten: Es kann bis zu 100-mal mehr Energie benötigen, Daten zu verschieben, als sie zur Datenverarbeitung benötigen, erklärt Conway. Jede Form der Datenbewegung erfordert Strom, und dieser Stromverbrauch steigt mit dem Datenvolumen – ein bedeutendes Problem für datenintensive KI-Anwendungen. „Sie wollen Daten so selten und mit so wenig Abstand wie möglich verschieben“, sagt Conway.

„Die Lösung besteht darin, die Daten nicht mehr oder weiter als unbedingt notwendig verschieben zu müssen. Daher sind die Anwender bestrebt, Daten näher an den Ort der Verarbeitung heranzuführen. Eine Sache, über die sich Cloud Service Provider und Nutzer von Cloud Services einig sind, ist, dass es keinen Sinn macht, eine riesige Datenmenge in eine Drittanbieter-Cloud zu verschieben“, sagt er.

Erwägen Sie die Anmietung von Rechenzentrumsflächen

Die meisten Unternehmen, die KI implementieren wollen, sind Unternehmen, die Rechenzentrumsflächen von einem Rechenzentrumsbetreiber mieten, sagt Hollidge. Es gibt einige Rechenzentrumsbetreiber, die nicht in der Lage sind, hochkomplexe KI-Berechnungen durchzuführen, aber einige haben sich dazu entschlossen, einen Teil der hochkomplexen Umgebungen für KI anzubieten.

„Sie müssen vielleicht ein paar Anbieter durchgehen, bevor Sie es entdecken, aber auf Seiten des Rechenzentrumsbetriebs wird dem immer mehr Aufmerksamkeit geschenkt“, so Hollidge. Und ein Drittanbieter für Rechenzentren bietet Ihnen mehr Wachstumsmöglichkeiten. „Meistens sind Sie besser dran, einen flexiblen Mietvertrag abzuschließen, der es Ihnen ermöglicht, Ihr KI-Geschäft zu expandieren und zu erweitern, anstatt einen Grundstock zu bauen.“

Warten Sie auf Server der nächsten Generation

Supercomputer waren bisher nicht sehr datenfreundlich, sagt Conway. Da Supercomputer größer geworden sind, sind die Designs weniger datenzentriert. Das Ergebnis ist, dass mehr Daten bewegt und zwischen Prozessoren, Arbeitsspeichern und Speichersystemen ausgetauscht werden müssen. Und wie bereits erwähnt, kostet es mehr Energie, Daten zu verschieben als sie zu verarbeiten.

Die ersten exaskalierten Systeme werden mit mehr Beschleunigern und leistungsfähigeren Verbindungen für den Datenumlauf ausgestattet sein. Und viele Innovationen, die mit dem Supercomputing beginnen, wie GPUs und Speicherklasse-Speicher (SCM), arbeiten sich schließlich zu mehr Mainstream-Servern hinunter.

Zukünftige Server werden auch mit einem heterogeneren Chip-Layout ausgestattet sein; anstelle aller x86-CPUs werden sie GPUs, FPGAs und KI-Beschleuniger enthalten. Und für Hochgeschwindigkeitsspeicher werden NVMe-over-Fabric und SCM erschwinglicher. Die Server werden sich in den kommenden Jahren ändern, und viele dieser Neuerungen werden den Anwendungsumgebungen von Unternehmens-KI zugute kommen.

*Andy Patrizio ist freiberuflicher Journalist mit Sitz in Südkalifornien, der seit 20 Jahren die Computerindustrie abdeckt und jeden x86-PC gebaut hat, den er je besaß, Laptops nicht mitgezählt.


Mehr Artikel

Die Teilnehmer des Roundtables (v.l.n.r.): Roswitha Bachbauer (CANCOM Austria), Thomas Boll (Boll Engineering AG), Manfred Weiss (ITWelt.at) und Udo Schneider (Trend Micro). (c) timeline/Rudi Handl
News

Security in der NIS2-Ära

NIS2 ist mehr ein organisatorisches Thema als ein technisches. Und: Von der Richtlinie sind via Lieferketten wesentlich mehr Unternehmen betroffen als ursprünglich geplant, womit das Sicherheitsniveau auf breiter Basis gehoben wird. Beim ITWelt.at Roundtable diskutierten drei IT-Experten und -Expertinnen über die Herausforderungen und Chancen von NIS2. […]

Christoph Mutz, Senior Product Marketing Manager, AME, Western Digital (c) AME Western Digital
Interview

Speicherlösungen für Autos von morgen

Autos sind fahrende Computer. Sie werden immer intelligenter und generieren dabei jede Menge Daten. Damit gewinnen auch hochwertige Speicherlösungen im Fahrzeug an Bedeutung. Christoph Mutz von Western Digital verrät im Interview, welche Speicherherausforderungen auf Autohersteller und -zulieferer zukommen. […]

Andreas Schoder ist Leiter Cloud & Managend Services bei next layer, Alexandros Osyos ist Senior Produkt Manager bei next layer. (c) next layer
Interview

Fokus auf österreichische Kunden

Der österreichische Backup-Experte next layer bietet umfassendes Cloud-Backup in seinen Wiener Rechenzentren. Im Interview mit ITWelt.at erläutern Andreas Schoder, Leiter Cloud & Managed Services, und Alexandros Osyos, Senior Produkt Manager, worauf Unternehmen beim Backup achten müssen und welche Produkte und Dienstleistungen next layer bietet. […]

Miro Mitrovic ist Area Vice President für die DACH-Region bei Proofpoint.(c) Proofpoint
Kommentar

Die Achillesferse der Cybersicherheit

Eine immer größere Abhängigkeit von Cloud-Technologien, eine massenhaft mobil arbeitende Belegschaft und große Mengen von Cyberangreifern mit KI-Technologien haben im abgelaufenen Jahr einen wahrhaften Sturm aufziehen lassen, dem sich CISOS ausgesetzt sehen. Eine große Schwachstelle ist dabei der Mensch, meint Miro Mitrovic, Area Vice President DACH bei Proofpoint. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*