Mendel: Supercomputer für Wiener Biologen

Nicht nur Geheimdienste sammeln große Datenmengen, sondern auch Biologen. Damit sie mit diesen aber etwas anfangen können, brauchen sie Computer mit Unmengen an Speicherplatz, schnellen Leitungen und fitten Prozessorkernen. [...]

Solch einen „Supercomputer“ hat sich nun das Gregor Mendel Institut (GMI) der Österreichischen Akademie der Wissenschaften (ÖAW) geleistet und nach dem Genetiker und erbsenzählenden schlesischen Mönch „Mendel“ getauft, wie das Institut am, Montag in einer Aussendung bekannt gab.

„Man kann heute keine Wissenschaft mehr ohne ‚Big Data‘ machen“, erklärte Magnus Nordborg, der wissenschaftliche Leiter des GMI, im Gespräch mit der APA. Wenn Forscher etwa die kompletten Erbanlagen vieler Pflanzen-Individuen vergleichen wollen, wie oft jedes einzelne Gen in diesen abgelesen wird, und Unmengen mikroskopische Fotos Pixel für Pixel analysieren, bräuchten sie Computer, die mit Terabytes an Daten umgehen können. „Die moderne Biologie spielt sich am Computer ab“, meint er.

Zwar könne man auch Rechenpower bei diversen Anbietern kaufen, aber die Daten über das Internet zu anderen Servern zu schicken sei für die Wissenschafter keine Option. „Ironischerweise ist das Internet viel zu langsam für so große Datenmengen“, sagte er. Deshalb müsse man heutzutage die Computer dort hinstellen, wo die Daten erzeugt werden.

Auch die Hochleistungscomputer der Physiker wie der Computercluster an der Technischen Universität (TU) seien für die GMI-Forscher „praktisch nutzlos“, erklärte Nordborg. „Wenn man die Interaktionen von Teilchen oder das Wetter simulieren will, braucht man schlaue Algorithmen und viel Rechenkraft, aber wenig Speicherplatz, bei uns ist es genau umgekehrt“, sagte er. In der Biologie seien die Rechner-Aufgaben oft langweiliges Vergleichen von Daten, bei dem man allerdings Unmengen an Arbeits- und Festplattenspeicher bräuchte.

Damit der neue Supercomputer nicht gleich wieder veraltet ist, habe man sich für ein modulares System entschieden, erklärte Markus Kiess, Geschäftsführer des GMI. „Das System ist ausbaubar wie der Kasten eines schwedischen Möbelhauses“, sagte er. Momentan sei dieser Schrank erst zu einem Viertel mit „Schubladen“ – also Rechnereinheiten – gefüllt. „Bei Bedarf können wir relativ einfach und innerhalb von wenigen Wochen die Rechenpower verdoppeln oder verdreifachen“, so Kiess. Derzeit beziehen bis zu 10.000 Computerkerne gewaltige Datenmengen über ein Hochgeschwindigkeitsnetzwerk, um mit modernsten Methoden wissenschaftlich aussagekräftige Ergebnisse zu erzielen. (apa/rnf)


Mehr Artikel

News

Große Sprachmodelle und Data Security: Sicherheitsfragen rund um LLMs

Bei der Entwicklung von Strategien zur Verbesserung der Datensicherheit in KI-Workloads ist es entscheidend, die Perspektive zu ändern und KI als eine Person zu betrachten, die anfällig für Social-Engineering-Angriffe ist. Diese Analogie kann Unternehmen helfen, die Schwachstellen und Bedrohungen, denen KI-Systeme ausgesetzt sind, besser zu verstehen und robustere Sicherheitsmaßnahmen zu entwickeln. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*