Von Mainframe zu Exascale Claudia Blaas Schenner


23.09.2024

Von Mainframe zu Exascale: Die aufregende Zukunft der HPC-Enthusiasten


Switch to English
 

Claudia Blaas-Schenner ist eine der führenden Expert:innen für High-Performance Computing (HPC) und nimmt uns mit auf eine Zeitreise durch 30 Jahre Supercomputing an der TU Wien: Von den Anfängen des numerisch intensiven Rechnens bis zur heutigen Ära der Exascale-Systeme und dem Aufkommen von Künstlicher Intelligenz (KI). Claudia erzählt uns auch, wie sich die Welt um HPC weiter entwickeln wird und welche Chance es jetzt für alle gibt, die sich beruflich in Richtung HPC und KI entwickeln möchten.

Das Interview führte Bettina Benesch

Claudia, du arbeitest seit 30 Jahren an der TU Wien mit Supercomputern. Wie hat alles angefangen?
 

Ich habe Technische Physik studiert und danach an der TU Wien weiter geforscht. Und wenn du in der Physik etwas berechnen möchtest, ist klar: Du brauchst einen großen Rechner. So bin ich in das Thema High-Performance Computing (HPC) eingestiegen. Und das, was man regelmäßig macht, kann man irgendwann gut und so wurde HPC immer mehr mein zweites Standbein.
 

Hat man vor 30 Jahren schon von HPC gesprochen?


Wir haben meistens numerisch intensives Rechnen dazu gesagt, aber ich habe mein erstes paralleles Programm im Sommer 1992 geschrieben.
 

Was hat sich seither verändert?


Im Vergleich zu heute waren die Maschinen viel langsamer; der damalige Superrechner war weniger leistungsfähig als mein jetziges Handy. Der wichtigste Schritt war, dass die Interconnects auf den Clustern schneller geworden sind; also die Verbindung zwischen den einzelnen Teilen des Rechners. Das war Anfang 2000. Und ab da hat paralleles Rechnen massiv zugenommen und so hat die Ära von HPC begonnen. Vor ein paar Jahren sind die schnellen GPUs (Grafikkarten) auf den Markt gekommen, die der Künstlichen Intelligenz jetzt einen Boost verpassen. Es hat sich also sehr viel getan in diesen 30 Jahren.

Das, was früher eine Woche Rechenzeit gebraucht hat, braucht jetzt weniger als eine Minute.

Wie glaubst du, wird sich HPC in den nächsten zehn Jahren entwickeln?


Das wird ordentlich so weitergehen. Wir haben in den letzten Jahren sehr viel Entwicklung gesehen, gerade in Europa, seit das EuroHPC Joint Undertaking gegründet wurde, bei dem auch Österreich Mitglied ist. Mittlerweile haben wir in Europa die drei großen Pre-Exascale-Systeme LUMI in Finnland, Leonardo in Italien und MareNostrum 5 in Spanien.

Alle drei Systeme sind unter den besten zehn auf der weltweiten TOP500-Liste der schnellsten Rechner. Das wäre vor wenigen Jahren noch unvorstellbar gewesen, denn damals haben China, Japan und die USA dominiert. Heute ist Europa mit drei Systemen dabei und wir werden wahrscheinlich noch 2024 in Europa unser erstes Exascale-System bekommen, JUPITER in Jülich/Deutschland.


Welche Rolle spielt Künstliche Intelligenz bei HPC?


KI und HPC werden immer mehr zusammenwachsen und voneinander profitieren; das Wechselspiel ist hier sehr vielschichtig. Künstliche Intelligenz wird seit Jahrzehnten in HPC eingesetzt bei Simulationen, besonders bei Ensemblesimulationen, bei denen gleichzeitig viele verschiedene Rechnungen laufen, wo jeweils nur ein oder zwei Parameter anders sind als bei der Rechnung „daneben“.

Ich kann zum Beispiel ein Phasendiagramm von Kupfer und Nickel ausrechnen, die eine Legierung bilden. Dazu muss ich viele Rechnungen machen, nämlich für jede Konzentration von Kupfer und Nickel eine eigene Simulation. Bei der Auswertung hilft mir dann die KI. Man kann mit ihr auch den laufenden Betrieb der HPC-Systeme überwachen und sie zur Fehlererkennung oder für effizientes Scheduling einsetzen.

 

Der Hype um die Large Language Models kommt daher, dass jetzt erst die Ressourcen vorhanden sind, 
um solche Modelle rechnen zu können.

Das heißt, KI ist schon länger da. Ist das, was wir gerade erleben, nur ein Hype?


Es gibt einen Unterschied zu früher: Wir leben im Datenzeitalter und haben immer mehr Daten verfügbar. Nicht nur die, die wir durch Simulationen selbst erzeugen und dann auswerten, sondern auch solche, die gemessen werden, beispielsweise in Unternehmen. Und je mehr Daten ich habe, umso wichtiger wird KI: Sind da drei Zahlen, schaue ich mir die als Mensch an und weiß, was sie bedeuten und was ich damit anfangen kann. Wenn ich drei Millionen Zahlen habe, dann schaue ich ziemlich verzweifelt auf meine drei Millionen Zahlen. Dann brauche ich Hilfe und das ist das, was man mit Machine Learning und KI macht.

Wir hatten 2019 einen Deep Learning Hype. Der war nur deshalb möglich, weil erstmals Rechensysteme zur Verfügung standen, mit denen man überhaupt in einer sinnvollen Zeit ein gutes Ergebnis bekommen hat. Das braucht alles enorme Rechenleistung. Und der Hype, den wir seit 2022 mit den Large Language Models (LLM) sehen, der kommt auch daher, dass jetzt erst die Ressourcen vorhanden sind, solche LLMs rechnen zu können.


HPC ist also ein Boost für KI, kann man das sagen?


Ja, zurzeit ist HPC ein starker Boost für KI und umgekehrt. Wir sehen auch bei unseren Trainings, dass das Interesse am Thema AI deutlich zunimmt.


Ihr bietet am VSC seit 2015 Trainings an. Welche Kurse habt ihr zurzeit im Programm?


Das, wofür wir bekannt sind und wo unser guter Ruf herkommt, ist paralleles Programmieren, also MPI, OpenMP oder MPI+X. Das waren unsere ersten Kurse und sie sind nach wie vor unser Aushängeschild. Der Renner schlechthin ist der Intro-Kurs für den VSC, den jeder unserer neuen User:innen belegt, um sich zurechtzufinden. Der Kurs läuft vier oder fünf Mal im Jahr und ist immer voll. Und seit einigen Jahren haben wir natürlich Trainings, die neuere Themen abdecken, wie KI, Deep Learning, Large Language Models und – auch immer voll – Python for HPC.

Unsere Top-Kurse sind paralleles Programmieren, Einführung in VSC und Python für HPC. Sie laufen mehrmals pro Jahr und sind immer voll.

HPC ist ein sehr großer Bereich. Gibt es klassische Berufe im HPC-Umfeld?


Zurzeit existiert kein klares Berufsprofil und es laufen europaweit viele Projekte, in denen erarbeitet wird, wie es genau aussieht. Es ist ein komplexes Thema, denn es braucht ganz unterschiedliche Skills, um im HPC-Bereich zu arbeiten. Das sind einerseits Expert:innen, die die HPC-Systeme betreuen; da braucht es besondere Fähigkeiten, was die Systemadministration betrifft.

Andererseits gibt es Spezialist:innen, die ein System von null weg aufbauen, und wieder andere, die den Bereich Application Engineer oder Programmierer abdecken. Dann hängt es natürlich davon ab, ob es eine klassische Simulation ist, die ich programmiere oder ob ich etwas mit KI oder Data Science machen möchte. Also es ist sehr, sehr vielfältig und man braucht definitiv ein ganzes Team, das die verschiedenen Skills gemeinsam abdeckt.


Die Fähigkeiten sind unterschiedlich, sagst du – aber gibt es Eigenschaften, die Menschen brauchen, die sich beruflich die Richtung HPC entwickeln möchten?


Es ist sicher gut, wenn man gerne neue Sachen ausprobiert, bereit ist sich in neue Themen einzudenken und keine Angst hat, Fehler zu machen. Weil es Teamarbeit ist, ist das Entscheidende, dass man gut kommunizieren kann. Kommunikationsfähigkeit ist also essenziell.

Wer eine Karriere im Bereich Supercomputing anstrebt, sollte idealerweise einen PhD in einem MINT-Fach machen.

Wie viele Leute kennen sich mit HPC aus in Österreich?


Es sind vielleicht 100 bis 500, die sich gut auskennen; Menschen mit Basiswissen etwa 5.000 bis 10.000.
 

Wird es mehr brauchen in Zukunft?
 

Auf jeden Fall wird es viel mehr brauchen und auch geben. Zurzeit nimmt man weniger qualifizierte Leute auf und sie lernen on the job.
 

Welchen Ausbildungsweg empfiehlst du einem jungen Menschen, der in Richtung HPC gehen möchte?
 

Einen Master, oder noch besser einen PhD, in einem MINT-Fach, egal ob Physik, Chemie oder Mathematik und dazu Interesse an HPC. Oder womöglich gleich einen HPC-Master, wie den EUMaster4HPC. Großartig ist ein Internship an einem HPC-Zentrum und dort ein halbes Jahr mitzuarbeiten und HPC in der Praxis kennen und lieben zu lernen.


Zur Person

Claudia Blaas-Schenner hat an der TU Wien Technische Physik studiert und hier auch ihren PhD und ihren Postdoc gemacht. Sie startete 1990 mit ersten Berechnungen an Supercomputern und ist danach immer tiefer in die Materie eingestiegen. Heute gehört Claudia Blaas-Schenner weltweit zu den anerkanntesten HPC-Expert:innen. 2015 hat sie das Trainingsprogramm an Österreichs Supercomputer, dem VSC, gegründet und ist seither dessen Leiterin.

Sie ist eine der Top-Expert:innen für MPI und Chair der Konferenz EuroMPI/Australia 2024.


MPI ist die Abkürzung für Message-Passing Interface, ein Standard, ohne den paralleles Rechnen auf Clustern unmöglich wäre. EuroMPI ist eine internationale Konferenz mit sehr hoher Reputation und einem hohen Qualitätsanspruch. Von allen Vortrags-Einreichungen werden nur knapp 50 Prozent akzeptiert. Das Programm-Komitee besteht aus Vertretern aus Europa, den USA, Japan und Australien.


Trainings am Vienna Scientific Cluster (VSC)

Österreichs Supercomputer, der VSC, wurde 2009 erstmals in Betrieb genommen, 2015 wurden die ersten Trainings abgehalten, die auf Anhieb ausgebucht waren. Heute bietet der VSC jährlich rund 35 unterschiedliche Trainings an, vom VSC-Intro-Kurs, über MPI und C++ bis hin zu Python for HPC und Large Language Models.

Jährlich nehmen rund 1.200 Personen an den Trainings teil. Die Kurse sind kostenlos für alle VSC-User:innen und Mitarbeiter:innen österreichischer Universitäten bzw. für alle in Europa, solange der Kurs über EuroCC mitfinanziert wird. Nur für Kurse, die nicht in EuroCC fallen, zahlen Teilnehmer aus der Industrie und nicht-österreichische Teilnehmer eine kleine Kursgebühr.

Infos zu den Kursen gibt es hier: events.vsc.ac.at


Die wichtigsten Begriffe kurz erklärt