High-Performance Computing (HPC) ist der englische Ausdruck für Hochleistungsrechnen. Den Begriff kann man als „numerisch intensives Rechnen“ umschreiben.
Bei HPC geht es schlicht darum, die Rechenleistung zu maximieren – das heißt, in möglichst kurzer Zeit möglichst viele Berechnungen durchzuführen. Auf HPC greift man zu, wenn die Leistung der Desktop-Computer und Workstations nicht ausreicht, um komplexe numerische Probleme zu lösen.
HPC ermöglicht zum Beispiel die Entdeckung neuer Materialien, Simulationen aller Art (unter anderem FEM, CFD, Multiphysics), Analyse großer Datenbestände (Big Data) und Entwicklung künstlicher Intelligenz. Diese Aufgaben bedürfen massiver Rechenleistung und Speicherkapazität. Es gibt also zwei Gründe, um HPC zu nutzen: entweder, um aufwendige Berechnungen überhaupt erst durchführen zu können, oder um Berechnungen in einem adäquaten Zeithorizont bis hin zu Echtzeit zu realisieren. Deswegen ist HPC für ForscherInnen und viele Unternehmen essenziell, um Ziele schnell zu erreichen, Produkteinführungszeiten zu reduzieren und dabei auch Kosten zu senken.
Das Leistungsvermögen von HPC resultiert aus der Zusammenschaltung von vielen Rechnern zu einem Cluster. Ein HPC-Cluster wird auch Supercomputer genannt. Im Cluster werden die Rechenoperationen parallel auf mehrere Einzelsysteme verteilt. Durch dieses Netzwerk wird die Leistung von vielen tausend Prozessoren, Grafikkarten und Speichern aggregiert und der Rechenprozess stark beschleunigt.
Mit High-Performance Computing (HPC) lassen sich komplexe Probleme in Forschung, Wissenschaft, Ingenieurwesen und Wirtschaft bearbeiten und lösen.
Typische Anwendungen von HPC sind Modellierung und Computersimulation, Strukturierung und Analyse von Daten sowie Entwicklung von KI-Modellen (maschinelles Lernen). HPC wird auch zunehmend für Computergrafik und Rendering in der Filmindustrie genutzt, um computergenerierte Welten realistisch darzustellen. Ob Klimaforschung, Physik, Bioinformatik oder Filmanimation - HPC kommt in vielen unterschiedlichen Bereichen dem Bedarf an Optimierung aufwändiger Berechnungen und Verarbeitung großer Datenmengen nach.
Anwendungsbeispiele
In der Krebsforschung zum Beispiel werden Gene gesunder Probanden mit jenen von erkrankten verglichen, mittels Sequenzierung und Abgleich von mehreren Milliarden Basenpaaren - ein Unterfangen, das ohne den Einsatz von HPC undenkbar wäre. Als Ergebnis können neue Diagnosemethoden entwickelt werden.
Ein typisches Beispiel für den Einsatz von HPC in der industriellen Entwicklung ist die Simulation von Verbrennungsprozessen in einem Motor. Aufwändige und langwierige Versuchsreihen können zu einem Großteil durch Simulation ersetzt werden. Somit können Ergebnisse in einem Bruchteil der Zeit des Realexperiments gewonnen werden.
Ähnliches gilt für strömungsmechanische Simulationen (Computational Fluid Dynamics, CFD). Die Aerodynamik von Fahrzeugen, Fluggeräten oder windgetriebenen Maschinen wird typischerweise in Wind- und Strömungskanalen getestet. Die Testzeit in diesen Anlagen ist aber sehr kostspielig. Die Simulation bietet eine Möglichkeit, viele Variablen durchzuspielen, um die Prototypenbau und die Tests wesentlich zu optimieren.
Erfahren Sie mehr über die Vorteile von CFD in der Stahlindustrie, im Mobilitätssektor und im Sektor der Wasserkraftwerkskonstruktion.
Eine besonders breite Anwendung in Naturwissenschaft und Technik finden außerdem Finite-Element Methoden (FEM). Ein prominentes Beispiel hierfür sind Struktur- und Versagensanalysen von mikroskopischen Strukturen bis hin zu großen Bauwerken. Diese Methode dient dazu, Schwachstellen hinsichtlich Ermüdung, Vibration oder Aufprall zu identifizieren und somit hilft, Material zu sparen und Kosten zu senken.
Generell hilft HPC, viele Abläufe in der Wirtschaft zu optimieren und z.B. kostspielige, iterative Prozesse für die Prototypenplanung und -fertigung durch Simulation zu ersetzen.
Heutzutage ist die Anwendung von HPC in jedem Fachgebiet möglich und wegen der fortschreitenden Digitalisierung auch zunehmend nötig. HPC kommt zum Beispiel weiterhin im Finanzwesen zum Einsatz. Risikoaggregation in der Versicherungsbranche, Portfolioanalyse im Finanzsektor sind genauso Anwendungsgebiete für HPC wie Optimierung von Lieferketten für die Betriebswirtschaft.
HPC war lange Zeit eine Domäne von Wissenschaft und industrieller Forschung. Der weltweite Trend zeigt aber, dass diese Technologie auch für kleine und mittlere Unternehmen an Bedeutung gewinnt. Wenn Sie eine potenzielle Anwendung bzw. Bedarf für HPC sehen, zögern Sie nicht, uns zu kontaktieren.
Der Begriff Supercomputer (auch Superrechner oder Hochleistungsrechner genannt) bezeichnet ein besonders leistungsfähiges Computersystem. Dieses System entsteht durch Zusammenschaltung von vielen Rechnern zu einem Cluster.
Dabei sind die Einzelbestandteile eigentlich einem herkömmlichen PC sehr ähnlich. Die Prozessoren, die in einer solchen Anlage verbaut sind, unterscheiden sich von jenen in einem Laptop nicht. Aber im Unterschied zu einem Laptop, der 4 Hauptprozessoren (CPUs) hat, sind beim Supercomputer 400.000 oder mehr solcher CPUs gleichzeitig im Einsatz.
Die Einzelrechner im Cluster kommunizieren über ein sehr schnelles Netzwerk miteinander (z.B. InfiniBand). Es zeichnet sich durch eine hohe Bandbreite (ab 100 Gigabit/Sekunde) und äußerst kleine Latenzzeiten (ca. 1 Mikrosekunde) aus. In Kombination mit der großen Anzahl an Prozessoren lassen sich bis zu mehreren Millionen Milliarden Berechnungen gleichzeitig kalkulieren.
Bei HPC nutzt man diese Architektur, um möglichst viele Operationen parallel und verteilt laufen zu lassen. Supercomputer sind daher um mehrere Größenordnungen schneller als ein herkömmlicher PC und brauchen zur Berechnung aufwändiger Algorithmen nur einen Bruchteil der Zeit, die ein konventioneller Computer benötigt.
Die Leistungsfähigkeit von Supercomputern wird in FLOPS gemessen (Floating Point Operations Per Second, deutsch: Gleitkommaoperationen pro Sekunde). Der schnellste Supercomputer in Österreich VSC-4 erreicht eine Leistung von 2,7 PetaFLOPS, wobei die theoretische Spitzenleistung bei 3,7 PetaFLOPS liegt.
1 PetaFLOP = 1 Billiarde Operationen pro Sekunde. Wie steht diese Leistung im Vergleich zu einem Desktop-Computer? Obwohl sich Berechnungen auf einem Supercomputer nur schwer mit den üblichen Prozessen auf einem PC vergleichen lassen, kann man grob sagen: Der VSC-4 ist circa 10.000 Mal schneller.
Das ist nicht ganz leicht zu beantworten. In einer Momentaufnahme mag der operativ notwendige Rechenbedarf nicht besonders hoch sein. Die sehr rasch fortschreitende Digitalisierung im Zuge der Industrie 4.0 generiert jedoch eine Unmenge an Daten, die sowohl Herausforderung als auch Chance sind. Um aus diesen Daten Kapital schlagen zu können, oder sie gar zur Echtzeit-Steuerung heranzuziehen, bedarf es an beachtlicher Rechenleistung.
Vor allem in produzierenden Unternehmen steigt der Bedarf an Simulationen in der Produktentwicklung bis hin zur Generierung von digitalen Zwillingen stark an. Um Simulationen zeitgerecht durchführen zu können, reicht die bestehende IT-Infrastruktur oft nicht mehr aus.
Grundsätzlich gibt es Cloud-Lösungen, die HPC als Dienstleistung anbieten. Diese genügen in der Praxis jedoch nur für kleinere Anwendungen, akkumulieren beachtliche Kosten und machen es erforderlich, Daten aus der Hand zu geben.
Andernfalls kann Ihr Unternehmen die in Österreich und in der EU bestehenden Supercomputer mitnutzen. Dazu gehören in Österreich beispielsweise der VSC-4 (Österreichs schnellster Supercomputer), der Mach-2, LEO4, Gaisberg, etc. Oft muss hier die begrenzte Rechenzeit erst beantragt und bewilligt werden, was einen bürokratischen Aufwand bedeuten könnte.
Alternativ kann auch eine In-House-Lösung aufgestellt werden. Die Größenordnung der Anschaffungskosten reichen hier von einem Kleinwagen bis zu einer Penthouse-Wohnung, je nach Anforderung an die Clustergröße und dem damit einhergehenden Kühlungsaufwand.
Grundsätzlich sollte man vor dem Kauf, wenn möglich, ein Real-Case-Problem auf einem Cluster laufen lassen, um den Bedarf einschätzen zu können. Viele Hardwareanbieter ermöglichen das auch über die Cloud. Die Rechenleistung, die auf Datenblättern ausgewiesen wird, ist nur ein sehr theoretischer Richtwert.
Je nach Regelmäßigkeit des Bedarfs könnte eine Hybridlösung (In-House/Cloud/Rechenzentrum) kostengünstiger und relevanter sein.
Treten Sie bei Interesse mit uns in Kontakt, wir helfen Ihnen gerne weiter.
Heute werden stündlich mehr Daten erzeugt als noch vor 20 Jahren in einem ganzen Jahr (Seagate Data Report, 2020).
In unserem stark digitalisierten Alltag werden jede Minute Milliarden Fotos gemacht und geteilt. Die Tracker in unseren Smartphones und Smartwatches erfassen unsere Ortsbestimmung, Körperaktivitäten, merken sich unsere Passwörter und den Suchverlauf. Eine Navigationsapp berechnet die schnellste Route zum Ziel und bezieht dabei wiederum aktuelle Bewegungsdaten vieler anderen NutzerInnen ein, um potenzielle Staus zu umgehen. Es gibt kaum noch Aktivitäten, die keine Daten generieren, die mit der Nutzung des Internets, digitaler Geräte und Applikationen verbunden sind. Gleichzeitig nimmt die Anzahl an potenziellen Datenquellen zu, wie zum Beispiel die zahlreichen Sensor- und Assistenzsysteme, die in modernen Fahrzeugen standardmäßig verbaut sind.
Die Menge an Databytes, die weltweit jede Stunde generiert wird, ist mittlerweile unvorstellbar groß (eine Zahl mit 18 bis 19 Nullen) und wächst immer weiter. Der Begriff Big Data bezeichnet genau das: eine sehr große Menge an Daten, die stetig größer wird und in verschiedensten Formaten vorliegt.
Daten gelten heute als neues Gold - der in ihnen enthaltene Wert kann für Wissenschaft und Wirtschaft bisher undenkbare Erkenntnisse liefern. Unter anderem können Trends und potenzielle Risiken identifiziert und effiziente Entscheidungen getroffen werden. Wegen der Menge und Komplexität von Big Data stoßen traditionelle Methoden der Datenanalyse aber an ihre Grenzen.
Big Data Analytics
Um riesige Datenmengen zusammenzufassen, statistisch auszuwerten und zu interpretieren kommt Big Data Analytics zum Einsatz.
Aufgrund des riesigen Umfangs an Daten beziehungsweise der geforderten Geschwindigkeit bei der Auswertung dieser, kommen herkömmliche PCs und Workstations als Infrastruktur nicht infrage. Um die Datenmengen bewältigen zu können, muss man die Bearbeitung und Analyse hochgradig parallelisieren, das heißt, auf viele Prozessoren aufteilen. Solche Aufgaben lassen sich wunderbar mit HPC meistern, vor allem in Verbindung mit leistungsstarken GPUs.
Erkenntnisse aus den strukturierten und aggregierten Daten werden vielfach mit Hilfe von künstlicher Intelligenz gewonnen und kommen in weiterer Folge im maschinellen Lernen zum Einsatz. So sollen beim Data Mining sehr große Datenbestände durchforstet werden, mit dem Ziel, neue Querverbindungen, Muster und Trends zu erkennen. Auf diese Weise können beispielsweise in der medizinischen, bildgebenden Diagnostik potenzielle Erkrankungen frühzeitig erkannt, oder das Risiko zu erkranken quantifiziert werden.
Vorteile für Unternehmen
Big Data Analytics spielt in der Industrie 4.0 (Digitalisierung in der industriellen Produktion), der Marktforschung oder auch im Direktmarketing eine wichtige Rolle. Überall dort müssen sehr große Datenmengen rasch oder gar in Echtzeit ausgewertet werden. Dadurch können Unternehmen (egal ob große Unternehmen oder KMUs) ihre Kunden besser kennenlernen, um Angebote anzupassen und das Kundenerlebnis zu verbessern. Weiter ergeben sich Möglichkeiten, die Produktion und Lieferketten zu optimieren.
Die Größe des europäischen Big-Data- und Business-Analytics-Marktes wurde 2018 auf 44,21 Mrd. US-Dollar geschätzt und wird bis 2027 voraussichtlich 105,82 Mrd. US-Dollar erreichen (Allied Market Research, 2020). Der Trend der letzten Jahre zeigt, dass Unternehmen, die Big Data und Analytics in den Betrieb integrieren, profitabler und produktiver sind als ihre Konkurrenten.