Supercomputing wird selten mit Österreich in Verbindung gebracht, doch das Land spielt eine wichtige Rolle im Bereich High-Performance Computing für Wissenschaftler:innen und Unternehmen. Markus Stöhr, Leiter von EuroCC Austria, dem österreichischen Kompetenzzentrum für Supercomputing, Big Data und Künstliche Intelligenz, erklärt im Interview, wie Supercomputer und KI den Alltag von Wissenschaft und Wirtschaft revolutionieren. Eine Entwicklung, die ganz ohne Brimborium auskommt – typisch österreichisches Understatement.
Das Interview führte Bettina Benesch
Traditionell geht es darum, Simulationen für viele verschiedene Fragestellungen durchzuführen, bei denen sehr große Datenmengen auf einmal verarbeitet werden sollen. Wenn ich zum Beispiel ein Hochhaus baue, kann ich feststellen, wie die Stahlkonstruktion auszusehen hat, damit sie stabil bleibt. Auch bei der Flugzeugkonstruktion wird HPC gebraucht, um herauszufinden, wie ein Bauteil aussehen muss, damit die Luftströmung optimal verteilt ist.
Es lassen sich auch elektronische Bauteile simulieren, wie etwa Transistoren oder Prozessoren, um zu messen, wie viel Wärme im Gehäuse entsteht, wenn Strom fließt. Die Wetter- oder Klimavorhersage wird klassischerweise auch auf Hochleistungsrechnern gemacht. Bisher war Supercomputing eine Domäne der Wissenschaft. EuroCC Austria macht es jetzt auch für Start-ups und KMU leichter zugänglich.
Es gibt viele verschiedene Möglichkeiten. Auf der einen Seite sehen wir Unternehmen, die HPC schon etabliert haben, jetzt aber mehr Rechenleistung brauchen. Da weisen wir darauf hin, dass es Systeme in Österreich und Europa gibt, machen diese Unternehmen mit den Rechnern vertraut und betreuen sie. Dann gibt es Unternehmen, für die HPC etwas ganz Neues ist. Hier erklären wir in Kursen oder Einzelgesprächen, was möglich ist und in welche Richtung die Sache gehen kann.
“
Bisher war Supercomputing eine Domäne der Wissenschaft. EuroCC Austria macht es jetzt auch für Start-ups und KMU leichter zugänglich.
„
Ein großes Thema ist zurzeit die Künstliche Intelligenz (KI): Es gibt sehr viele Unternehmen und Start-ups, die sich jetzt damit beschäftigen. Sie haben eine Idee und auch das prinzipielle Verständnis, wie ihre Problemstellung aussieht und gelöst werden dann. Aber irgendwann kommen sie zu einem Punkt, wo sie skalieren müssen, zum Beispiel wenn sie mehrere Projekte gleichzeitig abwickeln oder mehr Kund:innen betreuen möchten.
Unser Fokus liegt in den Bereichen Gesundheit, Bioinformatik und Rechtswissenschaft. Dabei geht es unter anderem darum, relevante Informationen aus einer unübersehbar großen Menge an Gesetzestexten oder Rechtsurteilen zu destillieren. Hier bewegen wir uns im Bereich Large Language Models (LLM), ein absolut boomendes Feld zurzeit.
Klassisches HPC ist weiterhin ein Thema für uns und wir erhalten sehr viele Anfragen von Unternehmen, zum Beispiel für Wettersimulationen oder sogenannte finite Elemente-Simulationen, mit denen man die Festigkeit von Materialien berechnet.
Der erste Schritt für Unternehmen ist, uns eine E-Mail zu schreiben. Dann finden wir heraus, wo das Unternehmen genau steht, was sie rechnen möchten und wie viel Rechenleistung benötigt wird. Anschließend bieten wir an, ein Testprojekt am österreichischem Supercomputer, dem Vienna Scientific Cluster (VSC), zu machen. Das heißt, wir richten einen Zugang ein und unterstützen das Unternehmen dabei, auf den Rechner zu kommen.
Bei uns erhält jedes Unternehmen Support durch ein:e HPC-Expert:in. Das unterscheidet uns von Cloud-Anbietern, die meist nur die Rechenressourcen liefern. Außerdem gibt es von Expert:innen des VSC regelmäßig Einführungskurse, in denen erklärt wird, wie man das System verwendet.
“
Bei uns erhält jedes Unternehmen Support durch ein:e HPC-Expert:in. Das unterscheidet uns von Cloud-Anbietern, die meist nur die Rechenressourcen liefern.
„
Ein Laptop zum Beispiel hat einen Prozessor und meistens 30 bis 60 Gigabyte Arbeitsspeicher, manche auch weniger, vielleicht nur acht. Unsere Systeme am neuesten Hochleistungsrechner VSC-5 haben 128 Cores und 512 Gigabyte Arbeitsspeicher. Das heißt, allein wenn man nur einen einzigen der insgesamt ca. 800 Rechenknoten des VSC-5 verwendet, haben wir schon ein Vielfaches an Leistung und Ressourcen wie ein normaler Arbeitsplatz-PC.
Als Lösung dazwischen gibt es natürlich auch Server, die jedes Unternehmen am eigenen Standort installieren kann. Auch die Cloud ist eine Alternative. Für die meisten Anwendungen reicht das vermutlich auch aus. Wenn es damit aber knapp wird, braucht man einen Supercomputer.
Beim VSC gibt es einen Unterschied zwischen akademischen und kommerziellen User:innen. Das hat damit zu tun, dass der VSC mit öffentlichen Geldern finanziert wird. Daher dürfen die Forscher:innen der beteiligten Unis die Systeme gratis verwenden. Unternehmen und Universitäten, die nicht im VSC-Konsortium sind, bezahlen normalerweise auf einer Pay-Per-Use-Basis. Am VSC-5 kostet Unternehmen die Rechenzeit zum Beispiel rund vier bis zehn Euro pro Knoten pro Stunde; im Rahmen von EuroCC wird die Rechenleistung für Testprojekte oder Proof of Concepts aber gratis zur Verfügung gestellt.
Auf der Hardwareseite wird jedes System, das neu gebaut wird, sehr viele GPUs, also Grafikkarten, enthalten und damit leistungsstärker werden. Sie werden insbesondere für KI-Anwendungen gebraucht, weil sie optimal sind, um neuronale Netze und Ähnliches zu trainieren.
“
KI wird künftig von vielen Forscher:innen genutzt werden, die bisher kaum mit Computern gearbeitet haben.
„
Ja. Wenn wir es thematisch betrachten, wird das, was klassisch auf HPC-Systemen passiert, weiter bestehen. Also Material- und Ingenieurwissenschaften, Physik, Chemie und Bioinformatik zum Beispiel werden immer Simulationen brauchen, weil das üblicherweise billiger ist als Versuche in der Werkstatt oder im Labor zu machen. Dazu kommen die KI-Anwendungen. Es gibt also eine ganz große Änderung in Sachen Anwendungsgruppen und Anwendungsfelder.
Wir sehen zum Beispiel immer mehr Forscher:innen, die nicht aus klassischen HPC-Bereichen kommen, wie etwa Linguist:innen, die zum Beispiel aus einer großen Zahl an Veröffentlichungen gewisse Informationen destillieren möchten. Da geht es Richtung Machine Learning (ML). KI wird künftig von vielen Forscher:innen genutzt werden, die bisher kaum mit Computern gearbeitet haben.
Derzeit haben wir zwei Möglichkeiten: erstens können wir garantieren, dass es, wenn gewünscht, kein Backup von den Daten gibt. Er wird also nichts irgendwohin kopiert. Zweitens verfügt jede:r Benutzer:in über individuelle Berechtigungen, sodass andere keinen Zugriff haben. Größere Isolation ist derzeit nicht möglich. Ab 2025 steht uns aber mit MUSICA (Multi-Site Computer Austria) ein neuer Hochleistungs-Rechencluster zur Verfügung, bei dem die Sicherheit noch höher sein wird. Theoretisch gibt es dann auch die Möglichkeit, die Daten zu verschlüsseln, was sich aber vermutlich negativ auf die Performance auswirkt.
Wir konnten das Trainingsprogramm zum Thema HPC und Künstliche Intelligenz deutlich erweitern. Es gibt viele neue Kurse, die sowohl akademischen als auch kommerziellen Nutzer:innen aus dem gesamten europäischen Raum teilweise kostenlos offenstehen und auch sehr gut besucht sind. Im akademischen Bereich steht Österreich, was HPC angeht, schon länger ganz gut da. Mit EuroCC geht es jetzt hauptsächlich darum, Unternehmen zu unterstützen, damit sie die Ideen, die sie haben, auch umsetzen können. Der Zugang zu High-Performance Computing durch EuroCC ist jetzt für KMU und Start-ups also deutlich einfacher.
Zur Person
Markus Stöhr beschäftigt sich seit 2004 mit High-Performance Computing und arbeitet seit 2011 für die BOKU University beim Supercomputing-Zentrum Vienna Scientific Cluster (VSC). Seine Doktorarbeit hat er noch am VSC-1 gerechnet, einer sehr alten Generation von Supercomputern. Heute steht mit dem VSC-5 65-mal mehr Rechenleistung zur Verfügung. Markus ist seit 2020 Leiter von EuroCC Austria, dem nationalen HPC-Kompetenzzentrum, das den Zugang zu High-Performance Computing, KI und Big Data vor allem für kleine und mittlere Unternehmen und Start-ups erleichtert.
Die wichtigsten Begriffe kurz erklärt
HPC ist die Abkürzung für High-Perfomance Computing, zu Deutsch Hochleistungsrechnen.
Ob man es glaubt oder nicht, aber HPC ist eigentlich eine relativ alte Sache: Das Wort „Supercomputing“ wurde 1929 zum ersten Mal verwendet und die ersten Großrechner gab es in den 1950er-Jahren. Damals hatten sie allerdings sehr viel weniger Kapazität als ein heutiges Handy. So richtig Fahrt nahm die Technologie in den 1970er-Jahren auf.
HPC-Systeme kommen immer dann zum Einsatz, wenn der eigene Arbeitsspeicher zu klein ist, größere Simulationen gefragt sind, die auf dem eigenen System keinen Platz haben oder wenn das, was bisher lokal gerechnet wurde, künftig sehr viel öfter gerechnet werden soll.
Die Leistungsfähigkeit von Supercomputern wird in FLOPS (auch FLOP/s) gemessen (Floating Point Operations Per Second).
1997 erreichte ein Supercomputer erstmals 1,06 TeraFLOPS (1 TeraFLOPS = 1012 FLOPS), Österreichs aktuell leistungsstärkster Supercomputer, der VSC-5, bringt es auf 2,31 PetaFLOPS oder umgerechnet 2.310 TeraFLOPS (1 PetaFLOPSs = 1015 FLOPS). 2022 brach die Ära der Exascale-Computer an, deren Leistung in ExaFLOPS gemessen wird (1 ExaFLOPS = 1018 FLOPS). Ein ExaFLOPS entspricht einer Trillion (1018) Gleitkommaoperationen pro Sekunde.
Mit Stand Juni 2024 gab es in der TOP500-Liste der weltbesten Supercomputer nur zwei Exascale-System, nämlich Frontier am Oak Ridge National Laboratory und Aurora am Argonne National Laboratory, beide in den USA. In Europa gibt es derzeit drei Pre-Exascale-Rechner, also Vorstufen der Exascale-Systeme. Zwei europäische Exascale-Systeme werden in naher Zukunft in Betrieb gehen.
Der VSC (Vienna Scientific Cluster)ist der Supercomputer Österreichs, gemeinsam finanziert von mehreren österreichischen Universitäten. Die Rechner befinden sich in Wien an der TU Wien. Ab 2025 ist der neueste Supercomputer MUSICA (Multi-Site Computer Austria) an den Standorten Wien, Linz und Innsbruck im Einsatz. Forscher:innen der beteiligten Unis können den VSC für ihre Simulationen nutzen und im Rahmen von EuroCC haben auch Unternehmen einfachen Zugriff auf Rechenzeit auf Österreichs Supercomputer. Zudem ist das Team des VSC eine wichtige Quelle von Know-how: In zahlreichen Workshops lernen künftige HPC-User:innen, egal welcher Niveaus, alles über Supercomputing, KI und Big Data.
Das EuroHPC Joint Undertaking ist eine öffentlich-private Partnerschaft der Europäischen Union, um eine europaweite Hochleistungsrechnerinfrastruktur aufzubauen und international wettbewerbsfähig zu halten. EuroCC ist eine Initiative von EuroHPC.
Jedes der teilnehmenden Länder (EU plus einige assoziierte Staaten) hat ein nationales Kompetenzzentrum für Supercomputing, Big Data und Künstliche Intelligenz aufgebaut, die nationalen EuroCCs (z. B. EuroCC Austria). Sie sind Teil des gleichnamigen EU-Projekts, das künftigen User:innen die Technologie näherbringt und den Zugang zu Supercomputern erleichtert. Der Fokus liegt auf kleinen und mittleren Unternehmen und Start-ups, die unter anderem mit Trainings und Support unterstützt werden, HPC zu nutzen. Das Joint Undertaking fördert auch das EUMaster4HPC-Projekt, ein Ausbildungsprogramm für angehende HPC-Expert:innen.