Vienna Scientific Cluster - Jan Zabloudil
Your wish is my command line: Österreichs Supercomputer passt sich User-Bedürfnissen an
Die Anforderungen an Hochleistungsrechnen verändern sich derzeit schneller als man „Supercomputing“ sagen kann. Jan Zabloudil ist einer der Expert:innen, die dafür sorgen, dass Österreichs Superrechner VSC reibungslos läuft. Im Interview erzählt er, wie aus einem Tool, das einst nur Forscher:innen vorbehalten war, ein Rechner für all jene wurde, die in die Welt von Big Data, Künstlicher Intelligenz und Supercomputing einsteigen möchten.
Das Interview führte Bettina Benesch
Jan, du bist seit Ende der 1990er-Jahre Mitarbeiter an der TU Wien und der BOKU University. Ich bin sicher, in dieser Zeit erlebt man ein paar interessante Geschichten. Wie war das damals, als Österreichs Supercomputer noch in den Babyschuhen war?
Es war alles etwas weniger komplex als heute, könnte man sagen. Als ich um 2001 herum meine Dissertation gemacht habe, war ich als Systemadministrator auch für unseren Arbeitsgruppencluster verantwortlich. Der bestand im Prinzip aus Desktop-PCs, die vernetzt waren. Wir haben die Rechner in einer Kammer am Institut in großen Metallregalen aufgestellt – mit einer sehr provisorischen Kühlung. Der Klassiker war, dass am Freitagnachmittag, als alle schon weg waren, die Kühlung ausgefallen ist. Montagfrüh musste dann alles repariert werden, also war mein erster Gang am Montag in die Kammer der Computer, um ihre Wohlfühltemperatur wieder herzustellen.
Wie sieht deine Arbeit heute aus?

Seit 2009 sorge ich dafür, dass der Vienna Scientific Cluster (VSC) läuft. Ich war damals einer von vier Systemadministratoren – inzwischen arbeite ich mit über einem Dutzend Personen zusammen, denn das, was heute an Arbeit anfällt, könnten ein paar Leute gar nicht mehr abdecken. Unser Team besteht aus Systemadministrator:innen, Expert:innen für Hardware und Infrastruktur, Softwareentwickler:innen, Trainer:innen, Mitarbeiter:innen im User:innen-Support und einer Expertin für Kommunikation. Und ich mische überall ein bisschen mit.
Was hat sich an der Arbeit am VSC über die Jahre verändert?
Am Anfang ging es nur darum, zu schauen, dass die Computer laufen. Mit der Zeit ist die Komplexität gestiegen, und alles, was neu dazukommt, ist ein kleines Spezialgebiet. Als ich begonnen habe, beim VSC zu arbeiten, bestand unser Publikum großteils aus Physiker:innen, Chemiker:innen, Mathematiker:innen, Klimaforscher:innen und Materialwissenschaftler:innen. Sie haben verschiedene Simulationen gemacht, die klassischerweise auf High-Performance-Computing-Systemen (HPC) laufen: Dazu gehört zum Beispiel das Ermitteln von Materialeigenschaften oder die Berechnung von Luftströmungen um Flugzeugteile. Unsere Systeme laufen linuxbasiert und alle klassischen User:innen kamen mit der Linux Command Line gut zurecht.
Um das Jahr 2014 haben sich die Anforderungen dann stark geändert: Die jungen Wissenschaftler:innen sind es gewohnt, sich alle performance-relevanten Dinge über optimierte Libraries zu holen. Es hat damit begonnen, dass neue Wissenschaftsdisziplinen dazugekommen sind. Speziell Bioinformatiker:innen waren bald einmal da. Und sie hatten komplett andere Anforderungen an eine HPC-Umgebung oder eine Rechenleistung.
Seit ungefähr 2020 kommen User:innen aus den Sozialwissenschaften und auch Unternehmen dazu, die sich zum Beispiel mit der Optimierung von Verkehrswegen bei Rettungseinsätzen beschäftigen, soziale Netzwerke analysieren oder Texte automatisiert auswerten möchten. Das passiert zunehmend mit Künstlicher Intelligenz (KI).
All diese User:innen haben unterschiedliche Bedürfnisse, verwenden unterschiedliche Codes und Programmiersprachen. Viele brauchen ein fertiges, idealerweise grafisches Benutzerinterface, wo sie ihre Arbeitsschritte durchführen können. Und unser Job ist es, sicherzustellen, dass jeder User und jede Userin des VSC die Möglichkeit hat, das eigene Ding zu machen.
“
All unsere User:innen haben unterschiedliche Bedürfnisse, verwenden unterschiedliche Codes und Programmiersprachen. Unser Job ist es, sicherzustellen, dass alle ihr Ding machen können.
„
HPC ist also in ständigem Wandel. Was ist der nächste große Schritt, der euch und die User:innen vom VSC erwartet?
Es wird zum Beispiel KI-spezifische Anwendungen geben, die man im Browser starten kann. Dahin geht die Richtung, aber es wird noch etwas dauern, bis das wirklich großflächig läuft. Was sicher auch kommen wird, ist eine Verbesserung im Bereich Datensicherheit. Damit werden wir einem Wunsch vieler Unternehmen gerecht.
High-Performance Computing bekommt auch in Österreich immer mehr Raum. Gehen damit auch technische Herausforderungen einher?
Energieeffizienz ist ein großes Thema. Die Leistung von Supercomputern steigt exponentiell alle paar Jahre um den Faktor Tausend und es darf nicht sein, dass sich der Energiebedarf dafür im gleichen Maße erhöht. Es muss eine flachere Kurve sein. Die neuen Grafikkarten-Prozessoren (GPU) sind an sich schon energieeffizienter als normale Prozessoren und auch die Kühlung wird besser. Unsere aktuell laufenden Hochleistungsrechner VSC-4 und VSC-5 verbrauchen pro 100 Kilowatt Leistung je nach Jahreszeit zwischen 5 und 20 Kilowatt, um sie zu kühlen. Das ist ein ganz guter Wert im Vergleich zu VSC-1, bei dem es noch bis zu 40 Prozent waren.
“
Die Leistung von Supercomputern steigt exponentiell alle paar Jahre um den Faktor Tausend und es darf nicht sein, dass sich der Energiebedarf dafür im gleichen Maße erhöht.
„
Derzeit wird mit MUSICA die nächste Generation der österreichischen Supercomputer aufgebaut. Worauf dürfen sich die User:innen da freuen?
Der nächste Supercomputer heißt MUSICA (Multi-Site Computer Austria) und wird auf drei Standorte in Wien, Linz und Innsbruck verteilt sein. Das ist zwar eine technologische Herausforderung, fördert aber auch die Zusammenarbeit der Universitäten. Das System wird hauptsächlich mit GPUs laufen und ist somit perfekt geeignet für User:innen, die KI-Anwendungen durchführen möchten.
Was ist denn der Unterschied beim Rechnen auf dem VSC-5 im Vergleich zu einem Cloud-Anbieter wie Google?
Google und andere private Anbieter decken nur einen Teilaspekt des VSC ab und sie sind teurer als wir. Wer mit sehr großen Datenmengen rechnet, kommt mit der Cloud nicht mehr aus. Außerdem müssen Firmen, die Cloud-Services nutzen, ihre Daten zu Google, Amazon oder Microsoft schieben und das wollen nicht alle, denn es ist nicht klar, wo sie dann liegen und was damit passiert. User:innen, die am VSC rechnen, wissen, dass ihre Daten im Land bleiben und sicher sind.
“
User:innen, die am VSC rechnen, wissen, dass ihre Daten im Land bleiben und sicher sind.
„
Zur Person
Jan Zabloudil hat an der TU Wien Physik studiert, und hier auch seine Dissertation gemacht und als Postdoc gearbeitet. Das war um die Jahrtausendwende. 2009 wurde Österreichs heutiger Supercomputer, der Vienna Scientific Cluster (VSC), in Wien erstmals in Betrieb genommen und Jan war einer der ersten Mitarbeiter, die den Rechner als Systemadministratoren betreut haben. Inzwischen ist das Team auf 17 Köpfe angewachsen und Jan unterstützt sie als Senior Systemadministrator und Teamkoordinator.
Die Supercomputer Österreichs seit 2000
Anfang des Jahrtausends gab es in Österreich noch keinen großen österreichischen Supercomputer wie den heutigen Vienna Scientific Cluster (VSC). Jedes Universitätsinstitut hatte seinen eigenen Rechencluster, dazu gab es in Wien ein größeres System für die Universität Wien, genannt „Schrödinger“, der von 2002 bis 2009 in drei Ausbaustufen in Betrieb war. Der Nachfolger des Schrödinger war VSC-1: Ein Gemeinschaftsprojekt von Universität Wien, TU Wien und Boku Wien, das 2009 in Betrieb gegangen ist. Zurzeit rechnen Österreichs Forscher:innen und Unternehmer:innen am VSC-4 und VSC-5. 2025 wird zusätzlich der neue Supercomputer MUSICA ans Netz gehen, der vorrangig für KI-Anwendungen zum Einsatz kommen wird.
Die wichtigsten Begriffe kurz erklärt
HPC ist die Abkürzung für High-Perfomance Computing, zu Deutsch Hochleistungsrechnen. Ob man es glaubt oder nicht, aber HPC ist eigentlich eine relativ alte Sache: Das Wort „Supercomputing“ wurde 1929 zum ersten Mal verwendet und die ersten Großrechner gab es in den 1950er-Jahren. Damals hatten sie allerdings sehr viel weniger Kapazität als ein heutiges Handy. So richtig Fahrt nahm die Technologie in den 1970er-Jahren auf.
HPC-Systeme kommen immer dann zum Einsatz, wenn der eigene Arbeitsspeicher zu klein ist, größere Simulationen gefragt sind, die auf dem eigenen System keinen Platz haben oder wenn das, was bisher lokal gerechnet wurde, künftig sehr viel öfter gerechnet werden soll.
Die Leistungsfähigkeit von Supercomputern wird in FLOPS (auch FLOP/s) gemessen (Floating Point Operations Per Second). 1997 erreichte ein Supercomputer erstmals 1,06 TeraFLOPS (1 TeraFLOPS = 1012 FLOPS), Österreichs aktuell leistungsstärkster Supercomputer, der VSC-5, bringt es auf 2,31 PetaFLOPS oder umgerechnet 2.310 TeraFLOPS (1 PetaFLOPSs = 1015 FLOPS). 2022 brach die Ära der Exascale-Computer an, deren Leistung in ExaFLOPS gemessen wird (1 ExaFLOPS = 1018 FLOPS). Ein ExaFLOPS entspricht einer Trillion (1018) Gleitkommaoperationen pro Sekunde.
Mit Stand Juni 2024 gab es in der TOP500-Liste der weltbesten Supercomputer nur zwei Exascale-System, nämlich Frontier am Oak Ridge National Laboratory und Aurora am Argonne National Laboratory, beide in den USA. In Europa gibt es derzeit drei Pre-Exascale-Rechner, also Vorstufen der Exascale-Systeme. Zwei europäische Exascale-Systeme werden in naher Zukunft in Betrieb gehen.
Der VSC (Vienna Scientific Cluster)ist der Supercomputer Österreichs, gemeinsam finanziert von mehreren österreichischen Universitäten. Die Rechner befinden sich in Wien an der TU Wien. Ab 2025 ist der neueste Supercomputer MUSICA (Multi-Site Computer Austria) an den Standorten Wien, Linz und Innsbruck im Einsatz. Forscher:innen der beteiligten Unis können den VSC für ihre Simulationen nutzen und im Rahmen von EuroCC haben auch Unternehmen einfachen Zugriff auf Rechenzeit auf Österreichs Supercomputer. Zudem ist das Team des VSC eine wichtige Quelle von Know-how: In zahlreichen Workshops lernen künftige HPC-User:innen, egal welcher Niveaus, alles über Supercomputing, KI und Big Data.