SCCH bringt Supercomputer an den Start

Das Software Competence Center Hagenberg (SCCH) hat seinen High Performance Cluster (HPC) in Betrieb genommen. Der Vorteil: Steigende Datenmengen in Projekten und komplexe KI-Anwendungen lassen sich damit wesentlich besser managen. Volkmar Wieser, Initiator von HPC am SCCH und Christian Rachle als konkreter Umsetzer im Interview. [...]

Christian Rachle (links), HPC-Spezialist am SCCH und Volkmar Wieser, Area Manager Data Science and Senior Research Project Manager. (c) SCCH
Christian Rachle (links), HPC-Spezialist am SCCH und Volkmar Wieser, Area Manager Data Science and Senior Research Project Manager. (c) SCCH

Für Unternehmen ist der Einsatz von HPC schwer zu realisieren. Das SCCH schließt die Lücke zwischen Wissenstransfer und Infrastruktur, indem es einen hochmodernen On-Premise-Cloud-Service für Wissenschaft und SCCH-Partner aufbaut. Dies ermöglicht eine kosten- und zeiteffiziente Entwicklung vom ersten KI-Modell bis hin zu Prototypen und deren Services“, erklärt Volkmar Wieser. „HPC ist ein wichtiger Beitrag, um die wissenschaftliche Wettbewerbsfähigkeit des SCCH zu steigern. Für unsere Kundinnen und Kunden ist das eine großer Mehrwert. Normalerweise verwenden wir für industrielle Anwendungsfälle Standardmodelle, die wir entsprechend modifizieren. Der Kunde bekommt am Ende ein Modell, das er weiterverwenden kann. Jetzt können wir viel interaktiver und serviceorientierter mit den Kunden arbeiten.“

Oft haben Kunden Sensordaten, die sie nach dem Training der KI-Modelle integrieren wollten. Sie haben aber nun die Möglichkeit, diese Modelle bereits während des Entwicklungsprozesses auszuprobieren und zu evaluieren. „Damit fühlen sie sich viel besser eingebunden und sehen sofort, ob das Ergebnis passt oder wo noch nachgebessert werden muss. Die Modelle können schneller an die Kundenwünsche adaptiert werden, wodurch auch gleichzeitig die Qualität des Ergebnisses steigt. Für uns ist es sehr wichtig, während der Modellentwicklung rasch ein Feedback des Kunden zu bekommen“, so Wieser.

Aber auch die Mitarbeiterinnen und Mitarbeiter profitieren angesichts des permanent steigenden Rechenbedarfs. Es wäre ein falscher Weg, wenn jeder Mitarbeiter seinen eigenen Rechner mit Multi-CPU, GPU und Speicher hätte. Jetzt ist das in Kubernetes-Containern organisiert. Das ist State of the Art und viel ressourcenschonender als die alten Systeme.

So plant man ein HPC-Projekt

Christian Rachle hat das neue System operativ umgesetzt. Das heißt, nicht nur die Hardware angeschafft, sondern er hat sich auch um die Software gekümmert, die das System verwaltbar, konfigurierbar und analysierbar macht. „Wir haben die Softwareumgebung für die unterschiedlichen Anforderungen von intern und extern entwickelt. Diese können über die Weboberfläche einfach gestartet werden und stehen für die Entwickler sofort zur Verfügung. Wir sind die Ersten in Europa, die ein hpe apollo 6500 gen10 plus System haben“, so Rachle. Der Cluster ist auf Basis von Kubernetes voll orchestriert und bietet einen einfachen und sicheren Zugang zur Infrastruktur anhand eines Webinterfaces. Dieser Webstore ermöglicht nicht nur einen einfachen und schnellen Start von Entwicklungsumgebungen, sondern auch eine Integration bzw. einen kontinuierlichen Einblick der wissenschaftlichen und wirtschaftlichen Partner in aktuelle Forschungsentwicklungen, die z.B. aus den Bereichen der künstlichen Intelligenz, Datenanalyse oder der Softwareentwicklung kommen.

Der Cluster ist flexibel aufgebaut und unterstützt von Multi-Cloud-Services bis hin zu Edge Devices eine Vielzahl an Umgebungen. Der Cluster wird fortlaufend erweitert und unterstützt Worker-Nodes, die jeweils 48 CPU-Cores, 1 TB RAM, 32 TB NVMe SSD und 4x HRX A100 GPUs mit 40 GB RAM beinhalten.
Die Planung um Umsetzung der Anlage wurde mit Kapsch und HPE umgesetzt, wobei Kapsch den Hard- und Softwareservice vor Ort macht und HPE die Hard- und Software bereitstellte. Der große Vorteil der Lösung ist, dass die Daten nicht in einer Cloud liegen, sondern lokal beim SCCH auf eigenen Servern gespeichert sind. Das garantiert Datensicherheit.

Ist HPC ein Energiefresser?

Früher gab es monolithische Systeme, die alle vorhandenen Ressourcen starteten, auch wenn sie nicht unmittelbar benötigt wurden. Jetzt ist alles als „Function as a Service“ aufgebaut, die mittels Container verwaltet werden. Das Management der Container mittels Kubernetes ist State of the Art und aufgrund der hohen Flexibilität viel ressourcenschonender, da nicht benötigte Ressourcen abgeschaltet werden. Das verbraucht weniger Ressourcen und somit weniger Energie, was einen wesentlichen Beitrag für die klimaschonende Berechnung von KI-Modellen liefert.

Am SCCH gibt es viele Projekte, deren Fokus auf Transfer Learning, Simulationen im Industriebereich, Bilddatenverarbeitung, Machine Learning, Big Data, Datenqualität und KI liegt. Im S3AI COMET-Modul werden die Grundlagen für den Aufbau sicherer kollaborativer künstlicher Intelligenzsysteme entwickelt. Das sind Methoden zur Wahrung der Privatsphäre, Schutz vor Hackerangriffen und Garantien für das beabsichtigte Verhalten des Systems. Die verwendeten Ansätze kommen dabei aus dem Bereich des Transfer Learnings. Hier profitieren die am Projekt beteiligten Unternehmens-partner.

Die Situation in Österreich

Es gibt unterschiedliche Institute, die sich zusammenschließen, um HPC-Cluster zu bilden. Der Cluster „High Performance Computing – EuroCC Austria“ visualisiert anhand öffentlich sichtbarer und ausgewählter Forschungsinfrastrukturen den österreichischen Aufbau eines wettbewerbsfähigen Supercomputing-Ökosystems. Das nationale Kompetenzzentrum (EuroCC Austria) ist ein Teil davon.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*