High-Performance-Computing für den erhöhten Leistungsbedarf

Die Nachfrage nach Rechenkapazitäten steigt rasant. Die Northern Data AG bietet maßgeschneiderte High-Performance-Computing (HPC)-Lösungen, bei denen die Rechenleistung verschiedener Systeme aggregiert und somit ein Vielfaches an Rechenleistung herkömmlicher Desktop- und einfacher Server-Systeme erreicht wird. Die COMPUTERWELT hat CEO Aroosh Thillainathan zum Interview via E-Mail gebeten. [...]

„Mit unseren Technologien und unserer HPC-Infrastruktur lösen wir passgenau die Probleme unserer Kunden.“ Aroosh Thillainathan, CEO der Northern Data AG. (c) Northern Data AG

Momentan erfährt die Nachfrage nach schneller und skalierbarer Rechenleistung einen regelrechten Boom. Kommt das für Sie zu diesem Zeitpunkt überraschend?

Für mich ist die stetig steigende Nachfrage nach GPU basierten HPC- und Hyperscale-Workloads im Rechenzentrum keine Überraschung. Datenwissenschaftler und Forscher können Datenmengen im Petabyte-Bereich nun wesentlich schneller parsen als mit herkömmlichen CPUs. Die Anwendungsbereiche reichen dabei von Energieforschung bis hin zu Deep Learning. Grafikprozessoren liefern enorme Leistung, um umfangreichere Simulationen schneller denn je zu berechnen. Für eine höhere Produktivität und zur Beschleunigung der Bereitstellung von KI-Services ist schnelleres Trainieren immer komplexerer Modelle der entscheidende Faktor.

Server nutzen die Leistung des beschleunigten Computings, um die Trainingszeit für Deep Learning von Monaten auf Stunden oder Minuten zu reduzieren. Marktanalysen zeigen, dass die Ausgaben für KI-Prozessoren in Rechenzentren in den nächsten fünf Jahren um mehr als das Vierfache steigen werden, von heute 5 Milliarden Dollar pro Jahr auf 22 Milliarden Dollar im Jahr 2025. Damit ist die hohe Rechenleistung des High Performance Computings gleichzeitig eine wichtige Triebfeder der digitalen Transformation.

Welche Branchen treiben die Nachfrage an HPC-Leistung besonders? Wo ist aus Ihrer Sicht der „Hunger“ nach Rechenleistung am größten?

Für uns war die erste Anwendung für HPC, die Blockchain beziehungsweise das Bitcoin-Mining. Hier steigt die Nachfrage nach Rechenleistung seit etwa drei Jahren steil an. Der Siegeszug der künstliche Intelligenz (KI) mit Deep Learning und maschinellem Lernen sowie Big-Data-Analysen, alles ebenfalls nur mit der hohen Rechenleistung von HPC zu realisieren, zieht sich dagegen mehr oder weniger durch alle Branchen: In der Automobilbranche unter anderem in der Simulation von Prototypen oder für Crashtests, in der Medizin für die Entwicklung von Arzneimitteln und ganz aktuell von Corona-Impfstoffen oder im Finanzsektor in der Risikoberechnung und Betrugserkennung, um nur drei Beispiele zu nennen.

Zudem wächst die Nachfrage nach HPC-Rechenleistung auch durch digitale Anwendungen wie den großen Bereich des Renderings von Filmen. Die dahinterstehende Rechenleistung macht es möglich, dass in den großen Kinofilmen heutzutage Animationen kaum noch von der Realität zu unterscheiden sind. Um aber auf Ihre Frage zurückzukommen: Der Hunger ist überall groß. GPU Basierte HPC-Projekte wurden in allen Industriezweigen gestartet, aber das ist nur der Anfang. Laut Prognosen wird alleine Deep Learning in den nächsten 15 bis 20 Jahren 30 Billionen Dollar zur Kapitalisierung des globalen Aktienmarkts beitragen.

Das zeigt, dass die Ansprüche von Kunden, die hohe Rechenleistung brauchen, sehr unterschiedlich sind. Wie gehen Sie damit um?

Die genannten Anwendungen in Bereichen wie künstliche Intelligenz, Big Data oder Rendering bewältigen wir in unserem Distributed-Computing-Cluster, den wir gerade an Standorten in den Niederlanden, Kanada und Skandinavien ausbauen und der letztendlich eine Rechenleistung von 404 Petaflops FP64 erreichen wird. Damit ist er unseres Wissens einer der leistungsfähigsten derartigen Cluster überhaupt. Seine Rechenleistung erreicht die Dimensionen der weltweit größten Supercomputer. Grundlage sind die GPU-basieren Server Systeme, die nach unseren Vorgaben speziell gebaut werden. Wir betreiben auf Wunsch die Hardware des Kunden, oder lassen die HPC Workload des Kunden auf unserer GPU-basierten Cloud Plattform laufen.

Grundsätzlich steht die hohe Rechenleistung für den Kunden, die wir weitestgehend automatisiert betreiben und skalieren können bei maximaler Kosteneffizienz immer im Vordergrund. Dazu arbeiten wir eng mit Partnern wie Gigabyte oder AMD zusammen. Gigabyte baut die Server für uns mit unseren Spezifikationen. Diese Serverarchitektur ist, was ihre Rechenleistung in Bezug auf den Energiebedarf betrifft bis zu 30 Prozent effizienter als vergleichbare Systeme. Anders als klassische Co-Location Anbieter betreiben wir die Rechenzentren, die Hardware, die Virtualisierungsschicht und die Anwendungssoftware aus einer Hand. So können wir die z.B. die Kühlung des Rechenzentrums optimal auf die tatsächliche Workload der Systeme abstimmen.

Spiegelt sich diese Innovationskraft auch in Softwareentwicklungen, die Sie einsetzen?

Allerdings, denn wir haben auch, basierend auf einer Managementsoftware, eine eigene künstliche Intelligenz entwickelt. Damit steuern, überwachen und warten wir die Hardware von der Installation über den gesamten Betriebs-Lifecycle. Unsere KI wacht im Rechenzentrum zu jedem Zeitpunkt über den technischen Zustand jedes Servers und regelt jeden einzelnen am Leistungsoptimum. Man könnte jetzt annehmen, dass dies bei jedem Server gleich ist, aber dem ist nicht so, denn jeder der ca. 240.000 GPUs wird permanent parametrisiert, optimiert und an die Rechenzentrums-Betriebsumgebung und Workload angepasst.

Unsere Software erkennt unmittelbar Störungen und behebt diese bis zu einem gewissen Grad automatisiert. Die Folge: optimale Auslastung bei geringsten Ausfallzeiten und – aufgrund des hohen Automationsgrades – geringster Personaleinsatz. Im Übrigen sind wir mit unserer Management-Software auch bei der Installation der Hardware extrem schnell, weil wir auch die Prozesse beim Aufbau automatisieren.

Der hohe Energiebedarf von HPC führt auf der andere Seite auch zu einer hohen Wärmeentwicklung. Was können Sie zur Energieeffizienz Ihrer Rechenzentren sagen?

Das ist richtig, in HPC-Rechenzentren ist die Wärmeentwicklung sehr viel höher als in herkömmlichen Rechenzentren. Mit unserem Know-how sind wir in der Lage, unsere Anlagen trotzdem sehr energieeffizient zu betreiben. Die Vorzüge der von uns entwickelten künstlichen Intelligenz, die jeden einzelnen Server überwacht und steuert habe ich bereits erwähnt. Ergänzend dazu haben wir eine eigene Technologie, ein eigenes System entwickelt, wie wir die Abwärme im Rechenzentrum lenken und ableiten. Gleichzeitig arbeiten wir vorrangig mit passiver Kühlung, die keinen signifikanten zusätzlichen Energiebedarf hat.

Das wirkt sich äußerst positiv auf unsere Energieeffizienz aus. Die „Power Usage Effectiveness“ (PUE) beschreibt das Verhältnis des Gesamtenergieverbrauchs einer HPC-Anlage, beziehungsweise eines Rechenzentrums allgemein, zu der tatsächlich rein für das Rechnen genutzten Energie. Wir erreichen in unseren Rechenzentren PUE-Werte von 1,1 und darunter, teilweise sind wir schon bei 1,03. Im internationalen Vergleich liegen die PUE-Werte durchschnittlich bei 1,6. Damit nehmen wir auch in diesem Bereich eine Spitzenposition ein. Ein Wert von 1,0 entspräche dem theoretischen Maximum der Energieeffizienz.

Welche Strategien wenden Sie an, um sich den enormen Energiebedarf Ihrer HPC-Anlagen zu sichern?

Der hohe Energiebedarf ist für uns in erster Linie eine Kostenfrage. Wir richten die Standortauswahl stark danach aus und suchen dazu schon sehr früh das Gespräch mit den Energieversorgern, die uns inzwischen als zuverlässige Partner kennengelernt haben. Wir sind in der Regel bestrebt, langfristige Verträge zu den günstigsten Konditionen abzuschließen, um so maximale Planungssicherheit zu bekommen.

Gleichzeitig ist es absolut vorrangig – dazu haben wir die beschriebenen Technologien entwickelt – die Energie so effizient wie möglich zu nutzen. Und genau da liegt ein großer Teil unserer Expertise. Das tiefe Know-how, wie man solche HPC-Anlagen mit höchster Effizienz betreibt, haben wir in unseren Anfangszeiten im Bitcoin-Mining aufgebaut. Darüber hinaus legen wir großen Wert darauf, nachhaltige Energiequellen zu nutzen. Erst vor kurzem haben wir einen zu 100 Prozent durch Wasserkraftwerke versorgten Standort in Nordschweden übernommen. Mit unseren mobilen Rechenzentren können wir außerdem noch besser an die Quellen erneuerbarer Energien herankommen, um unsere Rechenzentren so umweltverträglich wie möglich zu betreiben.

Können davon auch Ihre Kunden profitieren?

Allerdings, denn auch das ist letztendlich Teil unseres „Design-to-cost“-Ansatzes, dem Kunden genau die Leistung zu liefern, die optimal auf seine Anforderung zugeschnitten ist. Das gilt auch im Hinblick auf den Standort. Denn die Kosten für unsere Rechenleistung sind bis zu einem gewissen Punkt auch standortabhängig. Wir geben dem Kunden dadurch Wahlmöglichkeiten im Hinblick auf Faktoren wie Redundanz, Latenz oder die Anbindung ans Netz. Das geht so weit, dass wir regionale Standortvorlieben auch im Hinblick auf besondere Aspekte der Datensicherheit, Stichwort „freedom act“, erfüllen können.


Mehr Artikel

Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien. (c) WeinwurmFotografie
Interview

IT-Berufe im Fokus: Innovative Lösungen gegen den Fachkräftemangel

Angesichts des anhaltenden IT-Fachkräftemangels ist schnelles Handeln gefordert. Die Fachgruppe IT der UBIT Wien setzt in einer Kampagne genau hier an: Mit einem breiten Ansatz soll das vielfältige Berufsbild attraktiver gemacht und innovative Ausbildungswege aufgezeigt werden. IT WELT.at hat dazu mit Rüdiger Linhart, Vorsitzender der Berufsgruppe IT der Fachgruppe UBIT Wien, ein Interview geführt. […]

News

ISO/IEC 27001 erhöht Informationssicherheit bei 81 Prozent der zertifizierten Unternehmen

Eine Umfrage unter 200 Personen verschiedener Branchen und Unternehmensgrößen in Österreich hat erstmals abgefragt, inwiefern der internationale Standard für Informationssicherheits-Managementsysteme (ISO/IEC 27001) bei der Bewältigung von Security-Problemen in der Praxis unterstützt. Ergebnis: Rund 81 Prozent der zertifizierten Unternehmen gaben an, dass sich durch die ISO/IEC 27001 die Informationssicherheit in ihrem Unternehmen erhöht hat. […]

News

Public Key Infrastructure: Best Practices für einen erfolgreichen Zertifikats-Widerruf

Um die Sicherheit ihrer Public Key Infrastructure (PKI) aufrecht zu erhalten, müssen PKI-Teams, sobald bei einer Zertifizierungsstelle eine Sicherheitslücke entdeckt worden ist, sämtliche betroffenen Zertifikate widerrufen. Ein wichtiger Vorgang, der zwar nicht regelmäßig, aber doch so häufig auftritt, dass es sich lohnt, PKI-Teams einige Best Practices für einen effektiven und effizienten Zertifikatswiderruf an die Hand zu geben. […]

News

UBIT Security-Talk: Cyberkriminalität wächst unaufhaltsam

Jedes Unternehmen, das IT-Systeme nutzt, ist potenziell gefährdet Opfer von Cyberkriminalität zu werden, denn die Bedrohung und die Anzahl der Hackerangriffe in Österreich nimmt stetig zu. Die Experts Group IT-Security der Wirtschaftskammer Salzburg lädt am 11. November 2024 zum „UBIT Security-Talk Cyber Defense“ ein, um Unternehmen in Salzburg zu unterstützen, sich besser gegen diese Bedrohungen zu wappnen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*