HPC Infrastruktur Europa


HIGH-PERFORMANCE COMPUTING (HPC) INFRASTRUKTUR IN EUROPA
 

Österreich ist Mitglied bei "European High-Performance Computing Joint Undertaking" (EuroHPC JU) und bei "Partnership for Advanced Computing in Europe" (PRACE). Beide Initiativen stellen kostenlos Rechenzeit für WissenschaftlerInnen und Unternehmen (für Projekte im Bereich Forschung & Entwickung) aus Europa auf einer erstklassigen High-Performance Computing Infrastruktur zur Verfügung. Zukünftig soll es auch die Möglichkeit eines kommerziellen Zugangs ("pay-per-use") zu den EuroHPC Systemen geben.

Die primäre Mission von EuroHPC ist die Beschaffung und Bereitstellung von drei pre-exascale (mindestens 10^17 Flop/s) und fünf petascale (mindestens 10^15 Flop/s) Supercomputern in der EU, in weiterer Folge ist auch die Beschaffung eines exascale (mindestens 10^18 Flop/s) Systems geplant. Zwei petascale Systeme (KAROLINA und VEGA) stehen bereits für "Benchmark And Development Access" zur Verfügung, die restlichen Systeme befinden sich noch im Aufbau oder in Beschaffung.

Die PRACE Systeme werden von fünf Ländern zur Verfügung gestellt.


ZUGANG ZU EUROPÄISCHEN HPC-SYSTEMEN


Rechenzeit auf der europäischen HPC-Infrastruktur wird nach technischer und wissenschaftlicher Evaluierung im Rahmen sogenannter "Calls" vergeben, die Modalitäten hängen vom gewünschten System und vom Umfang der benötigten HPC-Ressourcen ab.

Eine Antragstellung für "EuroHPC Benchmark And Development Access" sowie für "PRACE Preparatory Access" ist jederzeit möglich. 
Der "PRACE 24th Call for Proposals for Project Access" ist noch bis zum 2. November 2021, 10 Uhr CET, offen.
Zukünftig wird es auch "Calls" für "Regular Access" und "Extreme Scale Access" auf den neuen EuroHPC Systemen geben.

Der Zugang zur europäischen HPC-Infrastruktur ist auch für Unternehmen (F&E) möglich. Europäische Klein- und Mittelbetriebe (KMU) können Unterstützung über eine der "European HPC Support For SMEs" Initiativen bekommen.

Das Team von EuroCC Austria bietet allen interessierten österreichischen HPC-NutzerInnen Beratung und Unterstützung bei der Antragstellung um Rechenzeit auf der europäischen HPC-Infrastruktur an. Bei Interesse kontaktieren Sie uns unter info@eurocc-austria.at.
 



Laufzeit: 09.09.2021 - 2.11.2021.

Die Ausschreibung richtet sich an Projekte, deren Codes zuvor getestet wurden und eine hohe Leistung und Skalierbarkeit auf den angeforderten PRACE-Systemen bewiesen haben. Antragberechtigt sind WissenschaftlerInnen und Unternehmen aus Europa, wobei 10% der im Call verfügbaren Rechenzeit priorisiert für Unternehmen (für Projekte im Bereich Forschung & Entwicklung) vergeben wird.

 



Einreichungen sind durchgehend möglich.

Diese Ausschreibung bietet ForscherInnen öffentlicher und privater Einrichtungen aus Europa und der ganzen Welt eine Möglichkeit, vor der Bewerbung für die PRACE-Calls für Project Access ihre Codes auf PRACE-Tier-0-Systemen zu optimieren, zu skalieren und zu testen.

 



Einreichungen sind durchgehend möglich.

Dieser Call ist eine Vorstufe zur Bewerbung für EuroHPC Extreme Scale und/oder Regular Projekte. Im Rahmen dieser Ausschreibung können ForscherInnen und HPC-AnwendungsentwicklerInnen ihre Anwendungen auf den EuroHPC-Systemen der Pre-exascale und/oder Petascale-Klasse entwickeln, testen und optimieren.

 

 

HPC SYSTEME IN EUROPA

 

Hier finden Sie eine Übersicht über die verfügbaren PRACE Systeme, sowie über die neuen EuroHPC Systeme, die sich teilweise noch im Aufbau befinden.

Legende: In Betrieb | Im Aufbau | Österreichische Beteiligung

PRACE SYSTEME




Der Piz Daint Supercomputer, betrieben vom Swiss National Supercomputing Centre in Lugano ist ein Cray XC50 System mit einer Gesamtzahl von 4400 Knoten. Neben Inel Skylake Prozessoren sind alle Knoten mit NVIDIA P100 GPUs ausgestattet und über die Cray „Aires“ Interconnect Technologie verbunden. Aufgrund dieses Designs ist das System ideal für GPU-basierte Problemstellungen geeignet und bietet dort enorme Rechenleistung.

 



Der Joliot-Curie Cluster von GENCI, betrieben von CEA im Très Grand Centre de Calcul nahe Paris ist ein BULL Sequana X1000 System der Firma Atos. Es handelt sich hierbei um ein ausgewogenes, CPU-basiertes System mit 3 verschiedenen Partitionen, mit insgesamt mehr als 4000 Rechenknoten. Die Hälfte der Knoten basiert hierbei auf Intel (Skylake sowie KNL) und die andere Hälfte auf AMD Epyc (Rome) CPUs. Mit unterschiedlichen Speicherverteilungen (RAM/core), Netzwerkanbindungen und Interconnects können die drei Partitionen eine breite Zahl an Anwendungen bedienen.

 



Der JUWELS (Jülich Wizard for European Leadership Science) Supercomputer am Forschungszentrum Jülich ist ein modularer Supercomputer der Firma Atos, der für ein breites Anwendungsspektrum von Big Data bis hin zu klassischen Simulationen geeignet ist. Der Hauptteil des Clusters (2500 Rechenknoten) setzt auf die Intel Skylake Prozessorfamilie und bietet unterschiedliche Nodearten für verschiedene Anwendungen an (RAM/core, sowie Beschleuniger in Form von NVIDIA V100 GPUs). Das später installierte Booster-Modul setzt hingegen auf AMD Epyc (Rome) CPUs und stellt mit 4 NVIDIA A100 GPUs pro Knoten und einer Gesamtzahl von 936 Knoten ein höchst leistungsfähiges System für anspruchsvolle Berechnungen, sowie maschinellem Learning Aufgaben bereit.

 

 




Das HAWK Supercomputer-System ist ein HPE Apollo System und wird vom Hochleistungsrechenzentrum Stuttgart (HLRS) betrieben. Verfügbar für sowohl akademische Nutzer als auch für Partner aus Industrie und Privatwirtschaft, wurde das HAWK System für Anwendungen aus dem Ingenieur-Bereich optimiert. Mit einer Gesamtzahl von 5632 Rechenknoten mit je 2 AMD Epyc (Rome) CPUs und HDR200 Infiniband Interconnect ist das System auf eine Vielzahl von Anwendungen ausgelegt, von klassischen Simulationen, über Datenauswertung bis hin zu maschinellem Lernen.

 

 



Das SuperMUC-NG System ist ein CPU-basierter Supercomputer am Leibniz-Rechenzentrum (LRZ) und basiert auf Intel Skylake Prozessoren. Mit einer Gesamtzahl von 6480 Rechenknoten und 311040 CPU-Cores stellt der SuperMUC-NG eine massive Rechenkraft über das PRACE Netzwerk zur Verfügung. Mit einem OmniPath Interconnect, IBM Spectrum Scale Dateisystem, sowie den Linux-basierten Intel Parallel Studio und OpenHPC Programmierumgebungen bietet das System eine breites Nutzungsspektrum an.



Das Marconi100 System vom italienischen CINECA Konsortium ist ein IBM Power9 basierter Supercomputer in Bologna. Das System setzt massiv auf Beschleuniger, sodass jeder der insgesamt 980 Rechenknoten mit je 4 NVIDIA V100 GPUs ausgestattet ist.

 

 




Der MareNostrum 4 Supercomputer vom Barcelona Supercomputing Centre (BSC) in Spanien ist ein General-Purpose Supercomputer, welcher aus 4 Modulen besteht. Das Hauptmodul (3456 Knoten) basiert auf Intel Skylake Prozessoren und stellt Rechenleistung für klassische HPC Anwendungen zur Verfügung. Die drei weiteren Module sind auf neue Technologien bzw. Architekturen im HPC Bereich fokussiert und sollen eine Test- bzw. Vergleichsplattform mit anderen in den USA und Japan entstehenden Supercomputern, die diese Technologien verwenden, schaffen. Neben einem Modul mit IBM Power9 Prozessoren kombiniert mit NVIDIA V100 GPUs, stehen außerdem ein AMD Modul mit Radeon Instinct MI50 Karten, sowie ein ARM System zur Verfügung.

 

 

EUROHPC PRE-EXASCALE SYSTEME


Die Beschaffung zweier der drei geplanten pre-exascale Supercomputern mit LUMI in Finnland und LEONARDO in Italien ist bereits abgeschlossen. Die Beschaffung des dritten Großrechners, MareNostrum 5 in Spanien, ist derzeit im Gange.



Das LUMI System wird ein Cray EX Supercomputer von Hewlett Packard Enterprise (HPE). LUMI wird im CSC in Finnland aufgestellt und betrieben und wird über eine Leistung von 375 PFlop/s verfügen. Über insgesamt vier verschiedene Partitionen (CPU, GPU, data analytics und container cloud) wird ein extrem breites Applikationsspektrum sichergestellt und neben klassischen HPC Anwendungen auch ein Fokus auf die immer wichtiger werdenden KI Anwendungen und hoch performante Datenanalyse gesetzt. Sowohl bei CPUs als auch bei GPUs wird hier auf AMD gesetzt.

 



Das 250 PFlop/s starke LEONARDO System wird von Atos bereitgestellt und von CINECA in Italien betrieben. Der Großteil der Rechenleistung wird hierbei von einer hybriden CPU-GPU Partition bereitgestellt welche auf Intel Skylake und NVIDIA Ampere GPUs basiert, während die kleinere zweite Partition auf schnelle Datananalyse fokussiert ist. Hierbei wird auf Intel Sapphire Rapid CPUs, DDR5 Arbeitsspeicher und schnellen lokalen NVM Speicher gesetzt. LEONARDO ist somit ideal für skalierbare Applikationen geeignet, welche sowohl von GPUs wie auch von CPU Parallelisierung profitieren.



Die Beschaffung des dritten Großrechners, MareNostrum 5 in Spanien, ist derzeit im Gange.

 

EUROHPC PETASCALE SYSTEME




MELUXINA, bereitgestellt von Atos und betrieben in Luxemburg, ist ein 12 PFlop/s starkes System, welches auf AMD Epyc und NIVIDIA A100 GPUs setzt. Neben klassischen HPC Anwendungen stehen somit KI und Big Data Anwendungen im Vordergrund. Zusätzlich wird ein Modul für Cloudanwendungen bereit gestellt.



Das KAROLINA System der Firma Atos in der Tschechischen Republik setzt auf AMD Epyc CPUs und NVIDIA A100 GPUs als Beschleuniger und kommt somit auf eine Rechenleistung von 9 PFlop/s. Das System ist neben klassischen HPC Anwendungen vor allem auf KI-, Datenanalye- und Cloudanwendungen ausgelegt.

 



DISCOVERER, ein Atos System, wird in Bulgarien bereitgestellt und ist auf klassisches HPC fokussiert. Es kommen AMD Epyc Prozessoren zum Einsatz, jedoch werden keine GPUs verbaut. Das System kommt somit auf eine Rechenleistung von 4,4 PFlop/s.

 




Der VEGA Supercomputer in Slowenien, bereitgestellt durch die Firma Atos, stellt 7 PFlop/s Rechenleistung zur Verfügung. Durch die AMD Epyc CPUs und NVIDIA A100 GPUs werden neben klassischen HPC Anwendungen auch KI und HPDA Anwendungen ermöglicht.

 



Das DEUCALION System, welches in Portugal aufgestellt wird, kombiniert drei verschiedene Technologien in drei Partitionen. Neben einer klassischen x86 Partition mit AMD Epyc CPUs (Atos) wird es eine A64FX ARM Partition von Fujitsu und eine GPU Partition mit NIVIDIA Ampere Grafikkarten geben. Zusammen werden 7,2 PFlop/s Leistung erreicht. Der Fokus soll neben klassischem HPC auf KI und Big Data Anwendungen liegen.