Kommerzieller Quantencomputer in Innsbruck erstmals in HPC-Umgebung eingebunden

Gemeinsam haben eigenen Angaben zufolge die Universität Innsbruck und das Spin-off AQT erstmals in Österreich einen Quantencomputer in eine High-Performance-Computing (HPC)-Umgebung eingebunden. Dieses Hybrid aus Supercomputer und Quantenrechner ermöglicht die Lösung von komplexen Aufgaben in Chemie, Materialwissenschaften oder Optimierung und wird bereits von Anwendern in Forschung und Industrie erprobt. [...]

Der HPC-Cluster LEO 5 an der Universität Innsbruck bietet bis zu 250 Milliarden Rechenoperationen pro Sekunde. (c) Eva Fessler/Universität Innsbruck
Der HPC-Cluster LEO 5 an der Universität Innsbruck bietet bis zu 250 Milliarden Rechenoperationen pro Sekunde. (c) Eva Fessler/Universität Innsbruck

Der Bedarf an Rechenleistung steigt ständig, und der Verbrauch an Ressourcen zur Unterstützung dieser Berechnungen weiter nimmt zu. Die Taktfrequenz von Prozessoren in klassischen Computern mit typischer Weise einigen GHz scheint ihre Grenze erreicht zu haben. Leistungsverbesserungen in den letzten zehn Jahren konzentrierten sich vor allem auf die Parallelisierung von Aufgaben mit Hilfe von Mehrkernsystemen, die in HPC-Zentren in Form von schnell vernetzten Mehrknoten-Rechenclustern betrieben werden. Die Rechenleistung steigt jedoch mit der Anzahl der Knoten nur annähernd linear. Anstatt sich auf einen homogenen Aufbau identischer Knoten zu konzentrieren, hat sich die Entwicklung auf den Betrieb heterogener Anlagen verlagert, die aus verschiedenen spezialisierten Knoten oder Beschleunigern wie GPUs oder NPUs bestehen, die jeweils für eine bestimmte Berechnung optimiert sind. „Mit dem Aufkommen von Quantencomputern und ihren Möglichkeiten, bestimmte Probleme in der Chemie oder den Materialwissenschaften deutlich rascher zu lösen, als dies klassischerweise möglich ist, sind Quantenbeschleuniger für HPC-Rechner eine neue, sehr spannende Möglichkeit“, sagt der Quantenphysiker Thomas Monz, Assistenzprofessor an der Universität Innsbruck und CEO des Spin-offs AQT.

Im Rahmen des von der FFG geförderten Projekts HPQC untersuchen Forscher und Entwickler der Universität Innsbruck und AQT die Integration eines Quantencomputers in eine HPC-Umgebung. Aufbauend auf standardisierten Schnittstellen für Quantencomputer gelang es dem Innsbrucker Team, den von der Universität betriebenen Rechencluster LEO5 mit dem Quantencomputer IBEX Q1 von AQT zu verbinden. Die entsprechenden Arbeiten bilden die Grundlage für künftige Forschungs- und Entwicklungsarbeiten zu quantengestützten Lösungen in heterogenen Infrastrukturen.

„Die erfolgreiche Integration eines Quantencomputers in eine High-Performance-Computing-Umgebung markiert einen bedeutenden Meilenstein für die österreichische und europäische Forschung und Technologieentwicklung. Dadurch eröffnen sich völlig neue Möglichkeiten, komplexe wissenschaftliche und industrielle Herausforderungen zu meistern und die Zukunft des Rechnens zu gestalten. Dieses Projekt demonstriert eindrucksvoll die Innovationskraft und den technologischen Vorsprung, den wir in unserem Land erreichen können, und zeigt das enorme Potenzial und die Unabhängigkeit der EU bei Quantentechnologien. Die FFG ist stolz darauf, diese wegweisende Entwicklung zu unterstützen“, so Henrietta Egerth, Geschäftsführerin der FFG.

Hybrider Supercomputer in Forschung und Lehre im Einsatz

Der hybride Supercomputer wird derzeit im Rahmen des HPQC-Projekts betrieben und erweitert, wobei der Schwerpunkt auf der Demonstration von hybriden Quantenlösungen liegt. Konsortialpartner wie die Math.Tec GmbH in Wien oder die Forschungsgruppe um Prof. Ivona Brandić an der TU Wien können direkt auf dieses hybride HPC-QC-Framework zugreifen und Berechnungen durchführen. Das Konsortium baut auf ein standardisiertes Ressourcen- und Benutzermanagement auf, wodurch deutlich mehr Nutzer von der Infrastruktur in Innsbruck profitieren können. Neben Forschung und Entwicklung werden die angebotenen Lösungen auch in Lehrveranstaltungen der Fachbereiche Informatik, Physik oder Chemie Anwendung finden, um eine neue Generation von quantenbewussten Forscher und Ingenieure auszubilden.

„Im Rahmen des HPQC-Projekts haben wir einfachen Zugang zur Innsbrucker HPC-Infrastruktur. Unsere Mitarbeiter können in der hybriden Infrastruktur Berechnungen durchführen und neuartige Lösungen für logistische Probleme erforschen. Dr. Angelika Widl, eine unserer Forscherinnen, verfolgt dank der ungeahnten Möglichkeiten in Innsbruck regelmäßig unerforschte Ansätze“, erklärt Dr. Karl Knall, Geschäftsführer der Math.Tec GmbH, Partner im HPQC-Projekt.

„Quantencomputer folgen neuartigen Berechnungsparadigmen und bieten daher neue Lösungen – einige von ihnen übertreffen die besten klassischen Algorithmen. Die Integration dieser Beschleuniger in die klassische Recheninfrastruktur und die Suche nach Hybridlösungen, die das Beste aus beiden Welten vereinen, ist jedoch ein unerforschtes Gebiet. Das HPQC-Projekt bietet uns die Möglichkeit, Forschung und Entwicklung in diesem wissenschaftlich und wirtschaftlich interessanten Bereich voranzutreiben“, sagt Prof. Ivona Brandić, Gruppenleiterin für High Performance Computing Systems an der TU Wien.

Quantenprozessoren als Beschleuniger für klassische Recheninfrastrukturen

Klassische HPC-Cluster werden in der Regel in standardisierten Server-Racks installiert. Während diese Geräte eine erstaunliche Rechenleistung bieten, skalieren bestimmte Probleme in der Natur, insbesondere solche, die mit Hilfe der Quantenmechanik beschrieben werden müssen, so ungünstig, dass sie nur annähernd oder gar nicht lösbar sind. Zu den entsprechenden Problemen gehört das Verständnis der Supraleitung bei Raumtemperatur, die – sobald sie technisch umsetzbar wird – voraussichtlich alle Bereiche der Elektronik revolutionieren wird; andere Anwendungen umfassen chemische Prozesse wie die Stickstofffixierung zur Entwicklung von kosten- und energieeffizienten Düngemitteln oder die Kohlenstoffbindung zur Bekämpfung des Klimawandels. Während es eine wachsende Zahl von Proof-of-Concept-Quantencomputern im Versuchsstadium gibt, hat AQT den ersten Rack-kompatiblen Quantencomputer entwickelt. Die Integration von Quantencomputern in die HPC-Infrastruktur bietet das Beste aus beiden Welten: Zugang zu klassisch herausragenden Rechenkapazitäten gepaart mit der Beschleunigung für bestimmte Problemklassen. Die Herausforderung besteht darin, die Arbeitslast zwischen diesen beiden völlig unterschiedlichen Berechnungsansätzen auszubalancieren – welcher Teil eines Berechnungsproblems wird am besten auf einem klassischen Computer bearbeitet, und an welchem Punkt sollte die Berechnung auf den Quantenprozessor übertragen werden? Schnittstellen zwischen der klassischen und der Quanteninfrastruktur ermöglichen es den Forschern und Forscherinnen nun, das Zusammenspiel zwischen klassischer und Quantenhardware kreativ auszuloten, anzupassen und zu erweitern.


Mehr Artikel

Gregor Schmid, Projektcenterleiter bei Kumavision, über die Digitalisierung im Mittelstand und die Chancen durch Künstliche Intelligenz. (c) timeline/Rudi Handl
Interview

„Die Zukunft ist modular, flexibel und KI-gestützt“

Im Gespräch mit der ITWELT.at verdeutlicht Gregor Schmid, Projektcenterleiter bei Kumavision, wie sehr sich die Anforderungen an ERP-Systeme und die digitale Transformation in den letzten Jahren verändert haben und verweist dabei auf den Trend zu modularen Lösungen, die Bedeutung der Cloud und die Rolle von Künstlicher Intelligenz (KI) in der Unternehmenspraxis. […]

News

Richtlinien für sichere KI-Entwicklung

Die „Guidelines for Secure Development and Deployment of AI Systems“ von Kaspersky behandeln zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren. […]

News

Datensilos blockieren Abwehrkräfte von generativer KI

Damit KI eine Rolle in der Cyberabwehr spielen kann, ist sie auf leicht zugängliche Echtzeitdaten angewiesen. Das heißt, die zunehmende Leistungsfähigkeit von GenAI kann nur dann wirksam werden, wenn die KI Zugriff auf einwandfreie, validierte, standardisierte und vor allem hochverfügbare Daten in allen Anwendungen und Systemen sowie für alle Nutzer hat. Dies setzt allerdings voraus, dass Unternehmen in der Lage sind, ihre Datensilos aufzulösen. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*