Grafikkarten liefern Rechenpower für die Wissenschaft

Grafikkarten helfen nicht nur bei Grafikanwendungen - an der TU Wien untersucht man, wie man sie für hoch anspruchsvolle wissenschaftliche Anwendungen nutzen kann. Dafür wurde die Universität von NVIDIA als "Nvidia GPU Research Center" ausgezeichnet. [...]

Früher war die Sache klar: Der Prozessor des Computers war dazu da, um etwas auszurechnen, und die Grafikkarte, um etwas am Bildschirm darzustellen. Doch Grafikkarten (GPUs) werden immer leistungsfähiger, nicht zuletzt durch hohe Anforderungen von Computerspielen im 3D-Bereich. Daher kann man sie mittlerweile auch für ganz andere Dinge verwenden, zum Beispiel für wissenschaftliche Simulationsrechnungen.

Am Institut für Mikroelektronik der TU Wien werden Rechenmethoden entwickelt, mit denen man die speziellen Vorteile von Grafikkarten optimal für die Wissenschaft nutzen kann. Der Grafikkartenhersteller Nvidia zeichnet diese Leistungen in diesem Bereich nun aus, indem er das Forschungsteam von Karl Rupp zum „Nvidia GPU Research Center“ macht und auf vielfältige Weise unterstützt.

HOCHPARALLELES RECHNEN

„Das Besondere an Grafikkarten ist, dass sie hochgradig parallel rechnen können“, sagt Karl Rupp, der Leiter des GPU Research Centers. „Ein moderner Prozessor hat vielleicht vier Prozessoren, die gleichzeitig Rechenaufgaben lösen können, eine Grafikkarte hingegen kann tausende Threads gleichzeitig abarbeiten.“ Gerade Grafik-Berechnungen lassen sich oft sehr gut in Teilaufgaben zerlegen, die nicht aufeinander aufbauen, sondern gleichzeitig berechnet werden können. Bei anderen Rechenaufgaben hingegen kann man den nächsten Schritt immer erst ausführen, wenn der vorhergehende Schritt fertig berechnet worden ist. Solche Aufgaben sind dann von Grafikkarten nur schwer zu lösen. Ob eine Grafikkarte oder eine herkömmliche CPU schneller zu einem Rechenergebnis kommt, hängt von der Art der Rechenaufgabe ab.

Gemeinsam mit seinen Kollegen Josef Weinbub und Florian Rudolf arbeitet Karl Rupp an Rechenmethoden, durch die man die Vorteile von Grafikkarten auch für die Wissenschaft optimal nutzen kann. „Ältere Generationen von Grafikkarten konnten nur Zahlen mit einfacher Genauigkeit verarbeiten“, sagt Rupp. „Seit 2009 oder 2010 sind nun aber auch Grafikkarten mit doppelter Genauigkeit verfügbar, wie man sie für die meisten wissenschaftlichen Simulationsrechnungen braucht. Seither sind Grafikkarten für die Wissenschaft als Alternative zum gewöhnlichen Computerprozessor interessant.“ Grafikkartenhersteller wie Nvidia haben das erkannt und wollen ihre Produkte auch für Anwendungen in der Hochleistungs-Simulationsrechnung vermarkten.

OPEN SOURCE LIBRARY FÜR DIE WISSENSCHAFT

„Eigentlich haben wir als Anwender begonnen, nicht als Methodenentwickler“, sagt Karl Rupp. Am Institut für Mikroelektronik werden aufwändige Computersimulationen entwickelt, mit denen man Halbleitermaterialien und nanoelektronische Schaltungen rechnerisch untersuchen kann. Damit sich solche Rechnungen mit hoher Präzision und in möglichst kurzer Zeit lösen lassen, muss man aber auch über computertechnische und mathematische Grundlagen nachdenken.

„Wir entwickeln nun Algorithmen, mit denen man Grafikkarten optimal für wichtige mathematische Schritte wie etwa das Lösen von Gleichungssystemen verwenden kann“, erklärt Rupp. Diese Algorithmen bilden die „ViennaCL Library“ und werden gratis auf open-source-Plattformen zur Verfügung gestellt. Wer auch immer in Zukunft mit hochparallelen Grafikkarten rechnen will, kann auf die mathematischen Grundbausteine zurückgreifen, die an der TU Wien entwickelt wurden.

GPU RESEARCH CENTER

Die Firma Nvidia verleiht nun der Forschungsgruppe von Karl Rupp an der TU Wien (vorläufig für ein Jahr) den Status eines „Nvidia GPU Research Centers“. Das ist nicht bloß eine Auszeichnung für bisherige Leistungen, die TU Wien wird auch mit Hardware und speziellem technischen Support versorgt und wird Zugang zu besonderen Produkten und speziellen Veranstaltungen haben.

„Für uns ist das eine wunderbare Motivation, weiterhin die besten GPU-Codes für die wissenschaftliche Community zu entwickeln“, sagt Rupp. In Zukunft will man insbesondere an Algorithmen für die Verarbeitung großer Matrizen arbeiten, die man für finite Elemente-Methoden braucht – einer Familie von Methoden, die in den Ingenieurswissenschaften und der Industrie eine große Bedeutung erlangt hat. (pi/rnf)


Mehr Artikel

News

6 Grundsätze für eine KI-taugliche Datenbasis

Wer Künstliche Intelligenz nutzen will, muss über eine vertrauenswürdige Datengrundlage verfügen. Daten sind das Lebenselixier von KI-Systemen und bestimmen maßgeblich die Qualität und Zuverlässigkeit der Ergebnisse. Nur so können KI-Modelle robust, anpassungsfähig und vertrauenswürdig arbeiten. […]

News

Cybersicherheitsbudgets werden falsch priorisiert

Der ICS/OT Cybersecurity Budget Report 2025 von OPSWAT deckt erhebliche Lücken in den Cybersicherheitsbudgets sowie einen Anstieg von ICS/OT-fokussierten Angriffen auf. Ferner wird deutlich, wie durch eine unzureichende Finanzierung, falsch gesetzte Prioritäten und uneinheitliche Abwehrmaßnahmen kritische Infrastrukturen immer raffinierteren Bedrohungen ausgesetzt sind. […]

News

Nach dem Hype: Diese vier KI-Trends werden 2025 weiterhin prägen

Die vergangenen zwei Jahre haben einen regelrechten KI-Boom erlebt. Insbesondere generative Modelle (GenAI) haben sich rasant weiterentwickelt und etablieren sich zunehmend als feste Größe in den Arbeitsprozessen von Organisationen weltweit. Angesichts dieser Dynamik fragen sich nun viele Unternehmen, welche Entwicklungen das Jahr 2025 bestimmen werden und welche Potenziale sich daraus ergeben. […]

News

Generative KI als Sicherheitsrisiko

Eine neue Studie von Netskope zeigt einen 30-fachen Anstieg der Daten, die von Unternehmensanwendern im letzten Jahr an GenAI-Apps (generative KI) gesendet wurden. Dazu gehören sensible Daten wie Quellcode, regulierte Daten, Passwörter und Schlüssel sowie geistiges Eigentum. Dies erhöht das Risiko von kostspieligen Sicherheitsverletzungen, Compliance-Verstößen und Diebstahl geistigen Eigentums erheblich. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*