High-Performance-Computing für den erhöhten Leistungsbedarf

Die Nachfrage nach Rechenkapazitäten steigt rasant. Die Northern Data AG bietet maßgeschneiderte High-Performance-Computing (HPC)-Lösungen, bei denen die Rechenleistung verschiedener Systeme aggregiert und somit ein Vielfaches an Rechenleistung herkömmlicher Desktop- und einfacher Server-Systeme erreicht wird. Die COMPUTERWELT hat CEO Aroosh Thillainathan zum Interview via E-Mail gebeten. [...]

„Mit unseren Technologien und unserer HPC-Infrastruktur lösen wir passgenau die Probleme unserer Kunden.“ Aroosh Thillainathan, CEO der Northern Data AG. (c) Northern Data AG

Momentan erfährt die Nachfrage nach schneller und skalierbarer Rechenleistung einen regelrechten Boom. Kommt das für Sie zu diesem Zeitpunkt überraschend?

Für mich ist die stetig steigende Nachfrage nach GPU basierten HPC- und Hyperscale-Workloads im Rechenzentrum keine Überraschung. Datenwissenschaftler und Forscher können Datenmengen im Petabyte-Bereich nun wesentlich schneller parsen als mit herkömmlichen CPUs. Die Anwendungsbereiche reichen dabei von Energieforschung bis hin zu Deep Learning. Grafikprozessoren liefern enorme Leistung, um umfangreichere Simulationen schneller denn je zu berechnen. Für eine höhere Produktivität und zur Beschleunigung der Bereitstellung von KI-Services ist schnelleres Trainieren immer komplexerer Modelle der entscheidende Faktor.

Server nutzen die Leistung des beschleunigten Computings, um die Trainingszeit für Deep Learning von Monaten auf Stunden oder Minuten zu reduzieren. Marktanalysen zeigen, dass die Ausgaben für KI-Prozessoren in Rechenzentren in den nächsten fünf Jahren um mehr als das Vierfache steigen werden, von heute 5 Milliarden Dollar pro Jahr auf 22 Milliarden Dollar im Jahr 2025. Damit ist die hohe Rechenleistung des High Performance Computings gleichzeitig eine wichtige Triebfeder der digitalen Transformation.

Welche Branchen treiben die Nachfrage an HPC-Leistung besonders? Wo ist aus Ihrer Sicht der „Hunger“ nach Rechenleistung am größten?

Für uns war die erste Anwendung für HPC, die Blockchain beziehungsweise das Bitcoin-Mining. Hier steigt die Nachfrage nach Rechenleistung seit etwa drei Jahren steil an. Der Siegeszug der künstliche Intelligenz (KI) mit Deep Learning und maschinellem Lernen sowie Big-Data-Analysen, alles ebenfalls nur mit der hohen Rechenleistung von HPC zu realisieren, zieht sich dagegen mehr oder weniger durch alle Branchen: In der Automobilbranche unter anderem in der Simulation von Prototypen oder für Crashtests, in der Medizin für die Entwicklung von Arzneimitteln und ganz aktuell von Corona-Impfstoffen oder im Finanzsektor in der Risikoberechnung und Betrugserkennung, um nur drei Beispiele zu nennen.

Zudem wächst die Nachfrage nach HPC-Rechenleistung auch durch digitale Anwendungen wie den großen Bereich des Renderings von Filmen. Die dahinterstehende Rechenleistung macht es möglich, dass in den großen Kinofilmen heutzutage Animationen kaum noch von der Realität zu unterscheiden sind. Um aber auf Ihre Frage zurückzukommen: Der Hunger ist überall groß. GPU Basierte HPC-Projekte wurden in allen Industriezweigen gestartet, aber das ist nur der Anfang. Laut Prognosen wird alleine Deep Learning in den nächsten 15 bis 20 Jahren 30 Billionen Dollar zur Kapitalisierung des globalen Aktienmarkts beitragen.

Das zeigt, dass die Ansprüche von Kunden, die hohe Rechenleistung brauchen, sehr unterschiedlich sind. Wie gehen Sie damit um?

Die genannten Anwendungen in Bereichen wie künstliche Intelligenz, Big Data oder Rendering bewältigen wir in unserem Distributed-Computing-Cluster, den wir gerade an Standorten in den Niederlanden, Kanada und Skandinavien ausbauen und der letztendlich eine Rechenleistung von 404 Petaflops FP64 erreichen wird. Damit ist er unseres Wissens einer der leistungsfähigsten derartigen Cluster überhaupt. Seine Rechenleistung erreicht die Dimensionen der weltweit größten Supercomputer. Grundlage sind die GPU-basieren Server Systeme, die nach unseren Vorgaben speziell gebaut werden. Wir betreiben auf Wunsch die Hardware des Kunden, oder lassen die HPC Workload des Kunden auf unserer GPU-basierten Cloud Plattform laufen.

Grundsätzlich steht die hohe Rechenleistung für den Kunden, die wir weitestgehend automatisiert betreiben und skalieren können bei maximaler Kosteneffizienz immer im Vordergrund. Dazu arbeiten wir eng mit Partnern wie Gigabyte oder AMD zusammen. Gigabyte baut die Server für uns mit unseren Spezifikationen. Diese Serverarchitektur ist, was ihre Rechenleistung in Bezug auf den Energiebedarf betrifft bis zu 30 Prozent effizienter als vergleichbare Systeme. Anders als klassische Co-Location Anbieter betreiben wir die Rechenzentren, die Hardware, die Virtualisierungsschicht und die Anwendungssoftware aus einer Hand. So können wir die z.B. die Kühlung des Rechenzentrums optimal auf die tatsächliche Workload der Systeme abstimmen.

Spiegelt sich diese Innovationskraft auch in Softwareentwicklungen, die Sie einsetzen?

Allerdings, denn wir haben auch, basierend auf einer Managementsoftware, eine eigene künstliche Intelligenz entwickelt. Damit steuern, überwachen und warten wir die Hardware von der Installation über den gesamten Betriebs-Lifecycle. Unsere KI wacht im Rechenzentrum zu jedem Zeitpunkt über den technischen Zustand jedes Servers und regelt jeden einzelnen am Leistungsoptimum. Man könnte jetzt annehmen, dass dies bei jedem Server gleich ist, aber dem ist nicht so, denn jeder der ca. 240.000 GPUs wird permanent parametrisiert, optimiert und an die Rechenzentrums-Betriebsumgebung und Workload angepasst.

Unsere Software erkennt unmittelbar Störungen und behebt diese bis zu einem gewissen Grad automatisiert. Die Folge: optimale Auslastung bei geringsten Ausfallzeiten und – aufgrund des hohen Automationsgrades – geringster Personaleinsatz. Im Übrigen sind wir mit unserer Management-Software auch bei der Installation der Hardware extrem schnell, weil wir auch die Prozesse beim Aufbau automatisieren.

Der hohe Energiebedarf von HPC führt auf der andere Seite auch zu einer hohen Wärmeentwicklung. Was können Sie zur Energieeffizienz Ihrer Rechenzentren sagen?

Das ist richtig, in HPC-Rechenzentren ist die Wärmeentwicklung sehr viel höher als in herkömmlichen Rechenzentren. Mit unserem Know-how sind wir in der Lage, unsere Anlagen trotzdem sehr energieeffizient zu betreiben. Die Vorzüge der von uns entwickelten künstlichen Intelligenz, die jeden einzelnen Server überwacht und steuert habe ich bereits erwähnt. Ergänzend dazu haben wir eine eigene Technologie, ein eigenes System entwickelt, wie wir die Abwärme im Rechenzentrum lenken und ableiten. Gleichzeitig arbeiten wir vorrangig mit passiver Kühlung, die keinen signifikanten zusätzlichen Energiebedarf hat.

Das wirkt sich äußerst positiv auf unsere Energieeffizienz aus. Die „Power Usage Effectiveness“ (PUE) beschreibt das Verhältnis des Gesamtenergieverbrauchs einer HPC-Anlage, beziehungsweise eines Rechenzentrums allgemein, zu der tatsächlich rein für das Rechnen genutzten Energie. Wir erreichen in unseren Rechenzentren PUE-Werte von 1,1 und darunter, teilweise sind wir schon bei 1,03. Im internationalen Vergleich liegen die PUE-Werte durchschnittlich bei 1,6. Damit nehmen wir auch in diesem Bereich eine Spitzenposition ein. Ein Wert von 1,0 entspräche dem theoretischen Maximum der Energieeffizienz.

Welche Strategien wenden Sie an, um sich den enormen Energiebedarf Ihrer HPC-Anlagen zu sichern?

Der hohe Energiebedarf ist für uns in erster Linie eine Kostenfrage. Wir richten die Standortauswahl stark danach aus und suchen dazu schon sehr früh das Gespräch mit den Energieversorgern, die uns inzwischen als zuverlässige Partner kennengelernt haben. Wir sind in der Regel bestrebt, langfristige Verträge zu den günstigsten Konditionen abzuschließen, um so maximale Planungssicherheit zu bekommen.

Gleichzeitig ist es absolut vorrangig – dazu haben wir die beschriebenen Technologien entwickelt – die Energie so effizient wie möglich zu nutzen. Und genau da liegt ein großer Teil unserer Expertise. Das tiefe Know-how, wie man solche HPC-Anlagen mit höchster Effizienz betreibt, haben wir in unseren Anfangszeiten im Bitcoin-Mining aufgebaut. Darüber hinaus legen wir großen Wert darauf, nachhaltige Energiequellen zu nutzen. Erst vor kurzem haben wir einen zu 100 Prozent durch Wasserkraftwerke versorgten Standort in Nordschweden übernommen. Mit unseren mobilen Rechenzentren können wir außerdem noch besser an die Quellen erneuerbarer Energien herankommen, um unsere Rechenzentren so umweltverträglich wie möglich zu betreiben.

Können davon auch Ihre Kunden profitieren?

Allerdings, denn auch das ist letztendlich Teil unseres „Design-to-cost“-Ansatzes, dem Kunden genau die Leistung zu liefern, die optimal auf seine Anforderung zugeschnitten ist. Das gilt auch im Hinblick auf den Standort. Denn die Kosten für unsere Rechenleistung sind bis zu einem gewissen Punkt auch standortabhängig. Wir geben dem Kunden dadurch Wahlmöglichkeiten im Hinblick auf Faktoren wie Redundanz, Latenz oder die Anbindung ans Netz. Das geht so weit, dass wir regionale Standortvorlieben auch im Hinblick auf besondere Aspekte der Datensicherheit, Stichwort „freedom act“, erfüllen können.


Mehr Artikel

Die Teilnehmer des Roundtables (v.l.n.r.): Roswitha Bachbauer (CANCOM Austria), Thomas Boll (Boll Engineering AG), Manfred Weiss (ITWelt.at) und Udo Schneider (Trend Micro). (c) timeline/Rudi Handl
News

Security in der NIS2-Ära

NIS2 ist mehr ein organisatorisches Thema als ein technisches. Und: Von der Richtlinie sind via Lieferketten wesentlich mehr Unternehmen betroffen als ursprünglich geplant, womit das Sicherheitsniveau auf breiter Basis gehoben wird. Beim ITWelt.at Roundtable diskutierten drei IT-Experten und -Expertinnen über die Herausforderungen und Chancen von NIS2. […]

Christoph Mutz, Senior Product Marketing Manager, AME, Western Digital (c) AME Western Digital
Interview

Speicherlösungen für Autos von morgen

Autos sind fahrende Computer. Sie werden immer intelligenter und generieren dabei jede Menge Daten. Damit gewinnen auch hochwertige Speicherlösungen im Fahrzeug an Bedeutung. Christoph Mutz von Western Digital verrät im Interview, welche Speicherherausforderungen auf Autohersteller und -zulieferer zukommen. […]

Andreas Schoder ist Leiter Cloud & Managend Services bei next layer, Alexandros Osyos ist Senior Produkt Manager bei next layer. (c) next layer
Interview

Fokus auf österreichische Kunden

Der österreichische Backup-Experte next layer bietet umfassendes Cloud-Backup in seinen Wiener Rechenzentren. Im Interview mit ITWelt.at erläutern Andreas Schoder, Leiter Cloud & Managed Services, und Alexandros Osyos, Senior Produkt Manager, worauf Unternehmen beim Backup achten müssen und welche Produkte und Dienstleistungen next layer bietet. […]

Miro Mitrovic ist Area Vice President für die DACH-Region bei Proofpoint.(c) Proofpoint
Kommentar

Die Achillesferse der Cybersicherheit

Eine immer größere Abhängigkeit von Cloud-Technologien, eine massenhaft mobil arbeitende Belegschaft und große Mengen von Cyberangreifern mit KI-Technologien haben im abgelaufenen Jahr einen wahrhaften Sturm aufziehen lassen, dem sich CISOS ausgesetzt sehen. Eine große Schwachstelle ist dabei der Mensch, meint Miro Mitrovic, Area Vice President DACH bei Proofpoint. […]

Alexander Graf ist Geschäftsführer der Antares-NetlogiX Netzwerkberatung GmbH. (c) Antares-NetlogiX Netzwerkberatung GmbH
Interview

Absicherung kritischer Infrastrukturen

NIS2 steht vor der Tür – höchste Zeit, entsprechende Maßnahmen auch im Bereich der Operational Technology (OT) zu ergreifen. »Wenn man OT SIEM richtig nutzt, sichert es kritische Infrastrukturen verlässlich ab«, sagt Alexander Graf, Experte für OT-Security (COSP) und Geschäftsführer der Antares-NetlogiX Netzwerkberatung GmbH, im ITWelt.at-Interview. […]

Brian Wrozek, Principal Analyst bei Forrester (c) Forrester
Interview

Cybersicherheit in der Ära von KI und Cloud

Die Bedrohungslandschaft im Bereich der Cybersicherheit hat sich zu einer unbeständigen Mischung von Bedrohungen entwickelt, die durch zunehmende Unsicherheit und steigende Komplexität bedingt ist. Zu diesem Schluss kommt der Report »Top Cyber-security Threats In 2024« von Forrester. ITWelt.at hat dazu mit Studienautor Brian Wrozek ein Interview geführt. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*