Trainingsrückblick: AI Hackathon 2025
Trainingsrückblick: AI Hackathon 2025
Vom 14. bis 23. Oktober 2025 brachte der EuroCC AI Hackathon KI-Ingenieur:innen, Data Scientists und Forschende aus ganz Europa zu einem intensiven, praxisorientierten Training zusammen. Im Mittelpunkt stand die Beschleunigung von KI-Workflows mithilfe von High-Performance Computing (HPC).
Die Veranstaltung wurde gemeinsam von Austrian Scientific Computing (ASC), dem Leibniz-Rechenzentrum (LRZ) und dem Academic Computer Centre Cyfronet AGH organisiert, in Zusammenarbeit mit der OpenACC-Organisation und NVIDIA sowie den Nationalen Kompetenzzentren EuroCC Austria, EuroCC@GCS und EuroCC Poland.
Ein mentorierter Ansatz zur KI-Beschleunigung
Das Open-Hackathon-Format bot eine Kombination aus strukturiertem Mentoring und selbstgesteuerter technischer Arbeit. Jedes teilnehmende Team brachte eine konkrete KI- oder ML-Fragestellung aus einem realen Forschungs- oder Anwendungsprojekt mit und arbeitete über mehrere Tage hinweg gemeinsam mit Mentor:innen daran, Code zu optimieren, Workloads zu skalieren und die Performance auf HPC-Systemen mit neuesten NVIDIA-GPUs zu verbessern.
Insgesamt nahmen zehn Teams aus Wissenschaft und Industrie teil, unterstützt von mehr als 20 Mentor:innen und Assistent:innen, die kontinuierlich bei GPU-Optimierung, Performance-Profiling und Best Practices für großskalige KI-Workloads unterstützten. Die Berechnungen wurden auf mehreren Supercomputern durchgeführt: Helios (Cyfronet), LEONARDO (CINECA), dem LRZ AI System (LRZ), VSC-5 (ASC) sowie auf NVIDIA DGX Cloud.
Highlights des Hackathons
1. Integration von Dagster für Slurm-basierte HPC-Cluster
Ein Team vom Complexity Science Hub (CSH) und ASCII (Österreich) untersuchte, wie Dagster-Slurm die Entwicklung und Ausführung von KI- und HPC-Workflows modernisieren kann. Das Projekt adressierte ein zentrales Problem im HPC-Umfeld: die Abhängigkeit von handgeschriebenen Batch-Skripten, manueller Umgebungsverwaltung und eingeschränkter Nachvollziehbarkeit.
Mit Dagster-Slurm zeigte das Team, wie reproduzierbare, testbare und beobachtbare Pipelines nahtlos vom Laptop bis hin zu einem Tier-0-Supercomputer ausgeführt werden können – ohne Code-Anpassungen. Damit wurde eine Brücke zwischen moderner Datenorchestrierung und High-Performance Computing geschlagen.
Mehr zur erfolgreichen Integration von Dagster-Slurm.
2. Beschleunigtes GAN-Training für biomedizinische Anwendungen
Ein Team der University of Silesia (Polen) konzentrierte sich auf die Effizienzsteigerung des Trainings von Generative Adversarial Networks (GANs) auf dem NVIDIA GH200 Grace Hopper™ Superchip des Supercomputers Helios.
Durch die Optimierung der Trainingspipeline konnte die Laufzeit von etwa 10 Sekunden pro Epoche auf 0,4 Sekunden reduziert werden – eine 25-fache Beschleunigung bei gleichzeitig über 98 % GPU-Kernel-Auslastung.
3. KI-Sicherheit durch Verifikation neuronaler Netze
Ein Team der TU Wien (Österreich) entwickelte ein GPU-beschleunigtes Verifikationssystem zur Bewertung der Robustheit neuronaler Netze gegenüber adversarialen Angriffen. Ursprünglich als akademischer Prototyp konzipiert, entwickelte sich das Projekt – angeregt durch die Mentor:innen – zu einem praxisnahen Werkzeug zur Verifikation von KI-Modellen in der Luft- und Raumfahrtlogistik.
Das System skalierte von 191.000 auf 105,8 Millionen Parameter (eine 550-fache Steigerung) und verifizierte erfolgreich Optimierungsprobleme des Airbus Beluga, wobei eine 5-fache Beschleunigung der Verifikationszeit erreicht wurde.
4. Verbesserte Vorhersagen im terrestrischen Kohlenstoffkreislauf
Ein Team des Barcelona Supercomputing Center (Spanien) brachte eine Anwendung an der Schnittstelle von Machine Learning sowie Wetter- und Klimamodellen ein. Ziel war eine präzisere, hochauflösende Darstellung von Landoberflächengrenzen.
Durch den Wechsel von einer Single-Node-Multi-GPU-Konfiguration zu einem Multi-Node-Setup erreichte das Team eine 3,3-fach schnellere Datenladung und eine 29 %ige Gesamtbeschleunigung des Trainings.
5. Erklärung des Modellverhaltens für zuverlässige mehrsprachige LLMs
Ein Team der LMU (Deutschland) untersuchte, wie Trainingsdynamiken zu Inkonsistenzen in der Faktenrepräsentation von Large Language Models (LLMs) über verschiedene Sprachen hinweg führen.
Das Team erweiterte und optimierte sein eigenes Interpretierbarkeits-Framework ExPLAIND, nutzte den PyTorch Profiler zur Identifikation von Performance-Engpässen und implementierte Best Practices für effizientes Datenladen des FineWebHQ-Datensatzes. Am Ende war es möglich, Modelle in einer Multi-GPU-Multi-Node-Umgebung mit Accelerate und DeepSpeed zu trainieren, was zu einem 20 % geringeren Speicherbedarf und präziseren Ergebnissen innerhalb von ExPLAIND führte.
6. Rekonstruktion funktioneller Gehirnaktivität mit dem NeuroGraph Inverse Solver
Ein Team von RAU/UBB (Rumänien/UK) brachte den NeuroGraph Inverse Solver mit, der funktionelle Gehirnkonnektivität aus nicht-invasiven EEG-Messungen rekonstruiert. Zur Optimierung einer Kombination aus Graph Neural Networks, spiking neuronalen Netzwerksimulationen und differenzieller Signalrekonstruktion passte das Team Annahmen kurzfristig an und arbeitete gezielt an der Stabilität des Algorithmus.
Durch Profiling und Performance-Optimierung wurde korrektes Multi-GPU-Training ermöglicht und eine 9,7-fache Beschleunigung erzielt – die Epochenzeit sank von 12 Minuten auf 2 Minuten.
7. Entschlüsselung des Übergangs von Fibrose zu Krebs mit genomischen LLMs
Ein Kooperationsprojekt mit Beteiligten von IISGS und CESGA (Spanien) arbeitete an der Feinabstimmung von Evo 2, einem Genomic Foundation Model, innerhalb des NVIDIA BioNeMo Frameworks, um den Übergang von Fibrose zu Krebs zu untersuchen.
Bis zum Ende des Hackathons gelang es dem Team, das Evo-2-Modell mit 1B, 7B und 40B Parametern erfolgreich zu fine-tunen, komplexe Multi-Node-Trainingsumgebungen zu beherrschen, die GPU-Performance zu optimieren und reproduzierbare Pipelines für biomedizinische LLM-Forschung aufzubauen.
8. KI-Modelle für schnellere Wettervorhersagen auf Madeira
Ein Team des Observatório Oceânico da Madeira nahm mit dem Ziel teil, schnellere und präzisere Wettervorhersagemodelle auf Basis neuronaler Netze für multivariate Zeitreihen zu entwickeln. Durch systematische Tests verschiedener KI-Modelle entstanden zwei funktionsfähige Prototypen, die als Grundlage für weiterentwickelte Wettervorhersagen für den Madeira-Archipel dienen.
9. GPU-beschleunigte Suche nach massereichen Schwarzen-Loch-Binärsystemen
Eine Zusammenarbeit zwischen der Universität Milano-Bicocca, SISSA und INAF (Italien) zielte auf die Weiterentwicklung von GAMES, einem GPU-beschleunigten Hamiltonian Nested Sampling-Algorithmus.
Zur schnellen und robusten Identifikation von Periodizitäten in sehr großen Datenmengen parallelisierte das Team den ursprünglich CPU-basierten Algorithmus und entwickelte innerhalb weniger Wochen eine funktionierende GPU-Version, die zehnmal schneller als der ursprüngliche Code ist.
10. Hochleistungsmodelle für den Schutz des Luftraums
Eine Gruppe von KI- und Computer-Vision-Ingenieur:innen (Türkei) arbeitete an der Weiterentwicklung ihrer Videoanalyse für die Wiedererkennung von Drohnenschwärmen. Durch umfangreiche Experimente mit Deep Metric Learning und Generativer KI verbesserten sie sowohl die Modellgenauigkeit als auch die Echtzeit-Performance – ein Beitrag zu intelligenten Drohnenabwehr- und Luftraumsicherheitstechnologien.
Fazit
Der EuroCC AI Hackathon zeigte, wie gezieltes Mentoring und der Zugang zu modernsten HPC-Systemen angewandte KI-Arbeiten erheblich voranbringen können. Die Teams kamen mit bestehenden Modellen und Forschungsfragen und nutzten den Hackathon, um Performance-Engpässe zu analysieren, Algorithmen zu optimieren und ihre Workflows an GPU-beschleunigte und Multi-Node-Umgebungen anzupassen.
Über alle Disziplinen hinweg wurden deutliche Verbesserungen in Skalierbarkeit, Effizienz und Robustheit erzielt, während die Teilnehmenden wertvolle praktische Erfahrung in Profiling, Parallelisierung und Best Practices für großskalige KI sammelten. Die enge Zusammenarbeit mit den Mentor:innen ermöglichte schnelle Iterationen und fundierte technische Entscheidungen und stärkte sowohl die einzelnen Projekte als auch die langfristige Expertise.
Das Organisationsteam bedankt sich herzlich bei allen Teilnehmenden, Mentor:innen und Assistent:innen, die diese Veranstaltung möglich gemacht haben. Wir sind stolz darauf, komplexe Probleme gelöst, neue Forschungsfelder erschlossen und nachhaltige Kooperationen während dieses Hackathons initiiert zu haben.
Weitere Informationen zu kommenden Trainingsveranstaltungen finden Sie unter events.asc.ac.at.
Weiterführende Links