High Performance Computing: Braucht man das?

Mit sinkenden Kosten und immer vielfältigeren Anwendungsfällen zieht High Performance Computing neue Anwender aller Art und Größe an. Zu den erweiterten Optionen gehören supercomputerbasierte HPC-Systeme, clusterbasierte HPC und Cloud HPC-Services. [...]

Immer mehr Unternehmen sind auf die Leistungsstärke von High Performance Computing angewiesen, doch nicht jedes kann sich seine Anschaffung auch leisten (c) Dell EMC/IDG

In der heutigen datengesteuerten Welt entwickelt sich High Performance Computing (HPC) zur Einstiegsplattform für Unternehmen, die tiefe Einblicke in so unterschiedliche Bereiche wie Genomik, Computational Chemistry, Financial Risk Modeling und Seismic Imaging gewinnen wollen. Ursprünglich von Forschern angenommen, die komplexe mathematische Berechnungen durchführen mussten, gewinnt HPC heute die Aufmerksamkeit einer größeren Anzahl von Unternehmen aus verschiedenen Bereichen.

„Umgebungen, die von der Erfassung, Analyse und Verteilung von Daten leben – und auf zuverlässige Systeme angewiesen sind, um einen optimierten Workflow mit immenser Rechenleistung zu unterstützen – benötigen HPC“, so Dale Brantly, Director of Systems Engineering bei Panasasas, einem Anbieter von HPC-Datenspeichersystemen.

Obwohl die Akzeptanz durch kleine und mittlere Unternehmen nach wie vor relativ gering ist, birgt die Technologie ein großes Potenzial für Unternehmen, die bereit sind, in Technologie und Fachwissen zu investieren.

Typischerweise konzentrieren sich HPC-Anwendungsfälle auf eine Art Simulation. „Die Simulation des Luftstroms über einem Flügel, die Verbrennung in einem Triebwerk, planetarische Wettersysteme, eine nukleare Reaktion oder die Bewertung eines Investitionsportfolios“, sagt Kevin Kissell, technischer Direktor für HPC und Quanteninformatik im Büro des CTO bei Google Cloud. Andere Anwendungsfälle zielen auf analytische Ziele ab, wie z.B. die Messung des Werbe-ROI oder die Bewertung der Leistung einer Geschäftseinheit. Noch andere Anwendungsfälle können als translatorisch oder transformatorisch eingestuft werden. „Wie Film- und Videowiedergabe“, bemerkt er.

High Performance Computing ohne den Supercomputer

Ein Missverständnis vieler Geschäfts- und IT-Leiter ist, dass alle HPC-Systeme supercomputerbasiert sind. Während Supercomputer von Firmen wie Atos, IBM, HPE/Cray und Fujitsu das Herzstück zahlreicher spezialisierter HPC-Systeme bilden, ist ein verbreiteter Ansatz die Integration mehrerer Kleincomputer in einen vernetzten Cluster, um HPC-Funktionen bereitzustellen. Bei einer solchen Anordnung dient jeder Computer innerhalb des Clusters als Knoten. Jeder Knoten ist typischerweise mit mehreren Prozessoren, den sogenannten Rechenkernen, ausgestattet, die Rechenaufgaben übernehmen. Die Prozessoren, grafischen Verarbeitungseinheiten (GPU) und Speicherressourcen in jedem Knoten sind miteinander verbunden, um ein HPC-System zu schaffen.

Da die Kosten für die Beschaffung und den Betrieb eines Supercomputers und seiner kundenspezifischen Software leicht in die Millionen gehen können, bleibt die Technologie weit außerhalb der finanziellen Reichweite der meisten Unternehmen. Cluster-HPCs mit relativ kostengünstigen, miteinander verbundenen Computern, die mit handelsüblicher Software betrieben werden, sind im Allgemeinen kostengünstiger in der Bereitstellung und im Betrieb. Dennoch kann selbst ein bescheiden dimensionierter clusterbasierter HPC eine bedeutende Investition für die meisten Unternehmen darstellen, insbesondere für solche mit nur begrenztem HPC-Bedarf.

Diese Situation ändert sich jetzt. Unternehmen, die HPC-Zugang erhalten möchten, ohne ihr IT-Budget zu sprengen, haben jetzt die Möglichkeit, auf Public Cloud-Dienste wie Google Cloud, Microsoft Azure, Amazon Web Services (AWS) und IBM Cloud zurückzugreifen.

„Diese Dienste ermöglichen es Unternehmen, Zugang zu HPC-Fähigkeiten zu erhalten, um ihre Geschäftsanforderungen zu erfüllen, ohne massiv in die Hardware-Infrastruktur eines HPC-Clusters investieren zu müssen“, so Maksym Pavlov, .NET Technical Lead bei Ciklum, einem Unternehmen für digitale Dienstleistungen und Softwareentwicklung. „Das Aufkommen der Cloud hat das Spielfeld zwischen kleinen und großen Unternehmen bis zu einem gewissen Grad geebnet“, fügt David Turek, IBMs Vice President of Exascale Computing, hinzu.

Wechsel vom HPC-Cluster zum Cloud HPC

Die University of North Carolina at Chapel Hill (UNC-Chapel Hill) vertraut seit langem auf ihren lokalen HPC-Cluster, um Forschungsaktivitäten in mehreren wissenschaftlichen, technischen und medizinischen Bereichen zu unterstützen. Doch da der Bedarf an Forschungscomputern weiter steigt, beginnt die Nachfrage der Nutzer die Rechenressourcen und -kapazitäten des aktuellen Systems zu übertreffen. Anstatt ihre bestehenden HPC-Investitionen zu erweitern, entschied sich die Universität für die Cloud, um den Benutzern eine On-Demand-HPC-Umgebung zur Verfügung zu stellen.

Der Ansatz erwies sich als kostengünstig und hochflexibel. „Mit der Cloud können wir den Computer bereitstellen, der notwendig ist, um die gewünschte Arbeit zu erledigen und ihn genau so lange berechnen zu lassen, wie die Aufträge erforderlich sind“, erklärt Michael Barker, Interim-CIO von UNC-Chapel Hill. „Es ist ein sehr effektiver Weg, um die Anforderungen für die Durchführung von Berechnungen zu erfüllen.“

Der Wechsel zur Cloud war notwendig und begrüßenswert, sagt Jeff Roach, Senior Research Associate bei UNC-Chapel Hill. „Wir haben einen sehr traditionellen lokalen Cluster“, sagt er. Im Laufe der Zeit wurde jedoch deutlich, dass das System allmählich nicht mehr mit einer wachsenden Zahl von Nutzern Schritt halten konnte, die modernste Rechenleistung und schnellere Leistung benötigten. „Wir haben festgestellt, dass unser lokaler Cluster für die Menschen, für die er entwickelt wurde, wirklich gut funktioniert, aber einige ihrer Edge Cases sind immer seltener ein Edge Case“, sagt er.

Da rechenintensive Anwendungsfälle schnell zur Normalität wurden, begann UNC-Chapel Hill mit Google Cloud und dem Simulations- und Analysesoftwareanbieter Techila Technologies zusammenzuarbeiten, um seine Reise in die Cloud HPC zu planen. Der erste Schritt nach der Planung war eine Proof-of-Concept-Evaluierung. „Wir haben einen der Forscher auf dem Campus mitgenommen, der nur einen Haufen Speicherplatz und interaktiven Rechenaufwand verbraucht hat, und wir haben versucht, seine Arbeitsbelastung zu testen“, erklärt Roach. Das Ergebnis war ein uneingeschränkter Erfolg, stellt er fest. „Dem Forscher hat es wirklich Spaß gemacht, er hat seine Arbeit erledigt.“ Die gleiche Aufgabe hätte bis zu einer Woche dauern können, um auf dem lokalen Cluster HPC der Universität zu laufen. „Er konnte einen Großteil seines Durchlaufs in nur wenigen Stunden erledigen“, so Roach.

Auf der anderen Seite des Atlantiks entschied sich auch die University of York für einen Cloud-basierten HPC-Ansatz. James Chong, Royal Society Industry Fellow und Professor am Department of Biology der University of York, stellt fest, dass HPC von der Fakultät und den Studenten in naturwissenschaftlichen Fakultäten wie Biologie, Physik, Chemie und Informatik sowie in der Sprachwissenschaft und mehreren anderen Disziplinen weit verbreitet ist.

Chongs Abteilung nutzt derzeit Google Cloud, um DNA-Sequenzdaten zu analysieren. „Insbesondere interessiert sich meine Fraktion für Mikrobiome, gemischte mikrobielle Gemeinschaften, die an der Umwandlung von Abfallstoffen – in unserem Fall Klärschlamm – in Biogas beteiligt sind“, erklärt er. „Wir verwenden HPC, um kurze DNA-Sequenzen wieder zu einem Metagenom zusammenzusetzen und dann die Genome der verschiedenen Mikroben zu trennen, so dass wir verstehen können, wie diese Organismen auf Veränderungen ihrer Wachstumsbedingungen reagieren.“

Wie seine Kollegen von UNC-Chapel Hill schätzt Chong die Leistungsfähigkeit und Flexibilität, die ein HPC-Cloud-Service bieten kann. „Unser HPC muss in der Lage sein, eine Reihe von Anforderungen zu erfüllen – einige Anwender wollen viele Prozessoren, andere benötigen speicherstarke Maschinen“, erklärt er. „Als Biologen werden einige der von uns verwendeten Anwendungen sehr schnell I/O-gebunden, so dass auch ein extrem schneller Festplattenzugriff nützlich ist.“

Der Cloud HPC, den die Universität verwendet, hat auch die Fähigkeit, sich an sich ändernde Bedürfnisse anzupassen. „Einige von uns beginnen, Techniken des maschinellen Lernens einzusetzen und wollen in der Lage sein, verschiedene Architekturen zu nutzen“, sagt Chong. „Durch den breiten Nutzerkreis der Universität benötigen wir auch den Zugriff auf verschiedene Pakete“, ergänzt er. Wie die meisten Cloud HPCs ermöglicht der von York verwendete Service verschiedenen Arten von Forschern, einfach und schnell zwischen Softwaretools zu wechseln, ohne Zeit mit Akquisitions-, Bereitstellungs- oder Konfigurationsproblemen zu verschwenden.

HPC mit einem Supercomputer

Während Cloud HPC-Services bestimmte Vorteile bieten, ist sie nicht immer die beste oder logischste Wahl für Unternehmen, die sich um Sicherheit und Datenschutz kümmern. „Es herrscht eine große Sensibilität darüber, wo sich Daten befinden“, beobachtet Turek. „Besonders wenn man sich die DSGVO-Beschränkungen in Europa ansieht, zum Beispiel.“

Um sowohl dem Datenschutz als auch dem Bedarf an massiver Rechenleistung gerecht zu werden, entschied sich die University of Miami kürzlich für Investitionen in ein neues, lokales, supercomputerbasiertes HPC-System. Am kritischsten ist, dass Forschungsprojekte mit massiven multidimensionalen Datensätzen auf speziell entwickelten Hochleistungs-Supercomputern viel schneller ablaufen können.

Im vergangenen August präsentierte die Schule ihren neuen IBM Triton Supercomputer, der auf Power Systems AC922 Servern basiert. Mehr als 2.000 Studenten und Dozenten nutzen das System bereits, um an Projekten wie Klimavorhersage, Genomik, Bioinformatik, Computer Vision und KI-Arbeiten zu arbeiten, stellt Nicholas Tsinoremas fest, Direktor des Center for Computational Science der University of Miami und stellvertretender Provozent für Daten- und Forschungsinformatik.

Der Einsatz verlief zwar erfolgreich, stieß aber auf einige anfängliche Hindernisse, die fast jeder HPC-Anwender erwarten kann, unabhängig von seiner Größe, seinem Feld oder seinen Computeranforderungen. “ Migrationsaspekte sind immer ein Problem“, meint Tsinoremas. Auch das Problem der Anwenderschulung und -umschulung musste angegangen werden. „Die Integration des neuen Systems mit bestehenden Speichersystemen war eine weitere Herausforderung“, sagt er.

All diese Bedenken verdeutlichen, dass, unabhängig davon, ob ein HPC-System lokal oder in der Cloud läuft, die schmerzfreie Einführung ein hohes Maß an Planung und Vorbereitung erfordert. „Internes Fachwissen ist notwendig, und die Institution muss einen Plan haben“, warnt Tsinoremas. Auch das Verständnis der Art und der Anforderungen von Workloads ist wichtig. „Mit anderen Worten, die Anwender müssen verstehen, welche Probleme sie zu lösen versuchen und wie sie erwarten, dass HPC ihnen hilft“, sagt er.

Erste Schritte mit HPC-Workloads

Ein weiterer Pluspunkt ist die Bedeutung der Auswahl der richtigen Ressourcenmanagement-Tools, die es einem Unternehmen ermöglichen, auf HPC-Umgebungen zuzugreifen und diese zu optimieren. „Ob Sie eine traditionelle HPC-Hardware-Umgebung anschaffen, HPC in der Cloud nutzen oder eine Mischung aus beidem, die Auswahl des richtigen HPC-Workload-Managers für Ihre Auftragsarten und Durchsatzanforderungen ist entscheidend“, so Jérémie Bourdoncle, Senior Product Management Director bei Altair, einem Anbieter von Simulationssoftware und anderen HPC-bezogenen Tools und Dienstleistungen. Ein Workload-Manager kann die Auftragsplanung sowie Management-, Überwachungs- und Berichtsfunktionen automatisieren.

Kissell schlägt eine Akzeptanzstrategie vor, die sich auf Wissen, Einfachheit, Optionen und Vorsicht konzentriert. „Es kann eine lange Reise werden, also planen Sie Ihre Route, aber geben Sie sich die Möglichkeit zur Kurskorrektur“, rät er. Wählen Sie einen Testfall, der einfach, aber repräsentativ ist und in dem die aus HPC-Simulationen oder -Analysen gewonnenen Erkenntnisse und Einsichten eindeutig identifiziert werden können. „Dann wählen Sie eine kurze Liste von Softwarepaketen, die für Ihre Problemklasse entwickelt wurden, und probieren Sie sie aus.“

*John Edwards ist ein erfahrener Wirtschaftsjournalist. Seine Arbeiten sind in der New York Times, der Washington Post und zahlreichen Wirtschafts- und Technologiepublikationen erschienen, darunter CIO, Computerworld, Network World, CFO Magazine, IBM Data Management Magazine, RFID Journal und Electronic Design.


Mehr Artikel

Unternehmen legen ihren Fokus auf Investitionen zur Performancesteigerung durch Künstliche Intelligenz. (c) Pexels
News

GenAI: Vom Experiment zum strategischen Werkzeug

KI hat sich von einem Hype zu einem strategischen Gamechanger entwickelt. Laut einer Studie von NTT DATA ist die Experimentierphase für generative KI (GenAI) endgültig vorbei. Stattdessen stehen nun konkrete Pläne zur langfristigen Nutzung im Vordergrund – mit dem Ziel, Performance, Arbeitsplatzkultur, Compliance, Sicherheit und Nachhaltigkeit zu optimieren. […]

News

Internationale Konferenz zeigt den Weg zur datengetriebenen Zukunft

Am 13. November 2024 fand im Bundesministerium für Klimaschutz, Umwelt, Energie, Mobilität, Innovation und Technologie (BMK) die Global Data Spaces Connect 2024 (GDSC24) statt, eine internationale Plattform, die Akteur:innen aus Wirtschaft, Wissenschaft und öffentlicher Verwaltung zu einem Austausch über den aktuellen Stand und die Zukunft der Datenräume (Data Spaces) zusammenbrachte. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*