Wie die Cloud und Big Compute HPC neu gestalten

High-Performance-Computing-Projekte erfordern große Mengen an Rechenressourcen. Die Kopplung von Simulation und spezialisierter Hardware mit der Cloud ermöglicht die Durchbrüche der Zukunft. [...]

"High-Performance Computing" (HPC) ist die gängigste Bezeichnung für diese Arbeitslasten (c) pixabay.com

Vor etwa 25 Jahren wurden ein paar Open-Source-Technologien kombiniert, um ein robustes, kommerzielles Internet zu schaffen, das endlich bereit war, Geschäfte zu machen und Ihr Geld zu nehmen. Unter dem Namen LAMP-Stack (Linux, Apache HTTP Server, MySQL und PHP/Perl/Python) wurde diese Open-Source-Kombination zum Standard-Entwicklungsstack für eine ganze Generation von Entwicklern.

Schauen Sie jetzt nicht hin, aber wir könnten durchaus an der Schwelle zu einem weiteren LAMP-Stack-Moment stehen.

Diesmal geht es jedoch nicht darum, einen neuen Online-Weg für den Verkauf von Hundefutter zu schaffen. Stattdessen ist eine neue Technologie-Renaissance im Gange, um algorithmisch komplexe, groß angelegte Workloads zu bewältigen, die große Mengen an Rechenressourcen verbrauchen. Denken Sie an Impfungen für COVID-19, den Bau neuer Überschalljets oder das Fahren autonomer Fahrzeuge. Die Welt der Wissenschaft und Technik liefert neue Innovationen in einem schwindelerregenden Tempo, wie es sie noch nie gegeben hat.

Wie das geht? Die Cloud. Aber nicht nur Cloud.

Die Anfänge von „Big Compute“ oder „Deep Tech“

Cloud ist vielleicht eine zu einfache Beschreibung für das, was hier passiert. Uns fehlt ein cleveres Kürzel für diese Transformation, wie ein LAMP-Stack für das Internet. Irgendetwas hat plötzlich Doktoranden befreit, um Rechenmaschinen von immenser Komplexität zu entwickeln, die algorithmisch gesteuerte Workloads antreiben, die unser Leben auf viel tiefgreifendere Weise verändern, als es ein frühes Friendster oder Pets.com versprochen hat.

High-Performance Computing“ (HPC) ist die gängigste Bezeichnung für diese Arbeitslasten. Aber das war, bevor öffentliche Clouds zu brauchbaren Plattformen für diese neuen Anwendungen wurden. Schauen Sie sich die Top500-Liste der schnellsten Supercomputer der Welt an, und Sie werden feststellen, dass eine wachsende Zahl auf öffentlichen Clouds basiert. Das ist kein Zufall: Vor-Ort-Supercomputer und massive Linux-Cluster gibt es schon seit Jahrzehnten (vor dem kommerziellen Internet), aber dieser neue Trend – manchmal auch als „Big Compute“ oder „Deep Tech“ bezeichnet – hängt stark von der Cloud ab.

Das Beratungsunternehmen BCG drückt es so aus: „Die steigende Leistung und die sinkenden Kosten von Computern sowie der Aufstieg von Technologieplattformen sind die wichtigsten Faktoren, die dazu beitragen. Cloud Computing verbessert stetig die Leistung und erweitert die Einsatzmöglichkeiten.“

Aber dieser neue „Stack“ besteht nicht nur aus der Cloud. Stattdessen hängt er von drei Megatrends in der Technologie ab: schnell wachsende Breite und Tiefe der Simulationssoftware, spezialisierte Hardware und die Cloud. Dies sind die technologischen Bausteine, die jedes schnelllebige Forschungs- und Wissenschaftsteam heute nutzt, und warum Hunderte von Startups entstanden sind, um lange vermoderte Branchen aufzurütteln, die sich vor einem Jahrzehnt oder mehr konsolidiert hatten.

Hilfe für Ingenieure, um schneller voranzukommen

Genau wie beim magischen Moment des LAMP-Stacks geht es auch beim heutigen Big Compute/Deep Tech-Moment darum, die Produktivität von Ingenieuren zu steigern. Die Cloud ist dabei von entscheidender Bedeutung, obwohl sie allein nicht ausreicht.

Nehmen Sie zum Beispiel die Luft- und Raumfahrt. Ein Luft- und Raumfahrtingenieur wäre traditionell auf einen HPC-Cluster vor Ort angewiesen, um alle notwendigen Variablen im Zusammenhang mit Start und Landung zu simulieren, um einen neuen Überschalljet zu entwickeln. Startup-Unternehmen aus der Luft- und Raumfahrtbranche sind dagegen direkt in die Cloud gegangen, mit einer elastischen Infrastruktur, die es ihnen ermöglicht, Anwendungen zu modellieren und zu simulieren, ohne sich hinter Kollegen für hochspezialisierte HPC-Hardware anstellen zu müssen. Weniger Zeit für den Aufbau und die Wartung von Hardware. Mehr Zeit zum Experimentieren und Entwickeln. Das ist das Schöne an dem Big Compute Cloud-Ansatz.

Kombiniert mit einer Vielzahl von Simulationssoftware, die es ermöglicht, neue Innovationen zu modellieren, bevor komplexe physikalische Dinge tatsächlich gebaut und prototypisiert werden. Spezialisierte Hardware, da Moore’s Law das Gas ausgeht, treibt diese algorithmisch komplizierten Simulationen an. Und die Cloud entkoppelt all dies von lokalen Supercomputern und Clustern, wodurch es um Größenordnungen einfacher wird, Modelle zu erstellen und auszuführen, zu iterieren und zu verbessern und sie erneut auszuführen, bevor man zu physischen Prototypen übergeht. (Um das klarzustellen: Bei einem Großteil dieser Big Compute/Deep Tech geht es um die Entwicklung von physischen Dingen, nicht von Software).

Das Schwierige in diesem Bereich sind die benutzerdefinierten Hardware- und Softwarekonfigurationen, die erforderlich sind, um sie zum Laufen zu bringen, und die ausgeklügelten Workflows, die zur Optimierung ihrer Leistung erforderlich sind. Diese Arten von algorithmusintensiven Workloads erfordern zunehmend spezialisierte GPUs und andere neuere Chip-Architekturen. Unternehmen, die teure Doktoranden bezahlen, um die nächste große Turbine oder die geheime Soße für Düsenantriebe zu entwickeln, wollen diese nicht behindern, indem sie sie zwingen, zu lernen, wie man Maschinen mit Simulationssoftware und Hardwarekombinationen aufstellt.

„Vor fünfzehn Jahren hat sich jedes Unternehmen in diesem HPC-Bereich dadurch differenziert, wie gut es seine Hardware vor Ort betrieben hat, und im Grunde darauf gewettet, dass das Mooresche Gesetz weiterhin Jahr für Jahr eine konstant bessere Leistung auf x86-Architekturen liefern würde“, sagte Joris Poort, CEO von Rescale, in einem Interview. „Heute kommt es vor allem auf Geschwindigkeit und Flexibilität an – um sicherzustellen, dass Ihre Doktoranden die beste Simulationssoftware für ihre Arbeit verwenden, und um sie davon zu befreien, Spezialisten für spezialisierte Big-Compute-Infrastrukturen zu werden, damit sie neue Innovationen schneller liefern können.“

Spezialisierte Supercomputer

Wird jedes Unternehmen irgendwann Simulation und spezialisierte Hardware in der Cloud nutzen? Wahrscheinlich nicht. Heute ist dies die Domäne von Raketen, Antrieben, computergestützter Biologie, Transportsystemen und den oberen 1% der schwierigsten Rechenherausforderungen der Welt. Aber während Big Compute heute genutzt wird, um die geekigsten Probleme zu knacken, werden wir mit Sicherheit eine neue Welle von Netflixen sehen, die die Blockbuster der Welt mit dieser LAMP-Stack-Kombination aus Cloud, Simulationssoftware und spezialisierter Hardware zu Fall bringen.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*