High Performance Computing (HPC) bezieht sich auf die Praxis, Rechenleistung auf eine Weise zu aggregieren, die eine viel höhere Leistungsfähigkeit als herkömmliche Computer und Server liefert. HPC oder Supercomputing ist wie alltägliches Computing – nur leistungsfähiger. Es handelt sich dabei um eine Methode, große Datenmengen mit sehr hoher Geschwindigkeit zu verarbeiten, indem man mehrere Computer und Storage-Geräte als zusammenhängende Struktur verwendet. HPC ermöglicht es, einige der weltweit größten Probleme in Wissenschaft, Technik und Wirtschaft zu untersuchen und Antworten darauf zu finden.
Heutzutage wird HPC verwendet, um komplexe, leistungsintensive Probleme zu lösen – und Unternehmen verlagern zunehmend HPC-Workloads in die Cloud. HPC in der Cloud verändert die Wirtschaftlichkeit von Produktentwicklung und -forschung, da es weniger Prototypen erfordert, Tests beschleunigt und die Markteinführungszeit verkürzt.
Einige Workloads, wie z. B. die DNA-Sequenzierung, sind einfach zu groß, als dass ein einzelner Computer sie verarbeiten könnte. HPC- oder Supercomputing-Umgebungen bewältigen diese großen und komplexen Herausforderungen, durch die Zusammenarbeit einzelner Knoten (Computer) in einem Cluster (verbundene Gruppe), sodass in kurzer Zeit große Rechenmengen ausgeführt werden können. Das Erstellen und Entfernen dieser Cluster wird häufig in der Cloud automatisiert, um die Kosten zu senken.
HPC kann bei vielen Arten von Workloads ausgeführt werden. Die beiden häufigsten sind jedoch „Embarrassingly Parallel“ und eng gekoppelte Workloads.
Hier sprechen wir von Rechenproblemen, die in kleine, einfache und unabhängige Aufgaben unterteilt sind und die gleichzeitig ausgeführt werden können, wobei häufig nur wenig oder gar keine Kommunikation zwischen ihnen besteht. Beispielsweise kann ein Unternehmen 100 Millionen Kreditkartendatensätze an einzelne Prozessorkerne in einem Cluster von Knoten senden. Die Verarbeitung eines einzelnen Kreditkartendatensatzes ist eine kleine Aufgabe. Wenn 100 Millionen Datensätze über das Cluster verteilt sind, können diese kleinen Aufgaben gleichzeitig (parallel) mit erstaunlicher Geschwindigkeit ausgeführt werden. Häufige Anwendungsfälle beinhalten Risikosimulationen, molekulare Modellierungen, kontextbezogene Suchen und Logistiksimulationen.
Hier handelt es sich normalerweise um einen großen gemeinsamen Workload, der in kleinere Aufgaben aufgeteilt wird, welche kontinuierlich miteinander kommunizieren. Anders ausgedrückt: die verschiedenen Knoten im Cluster kommunizieren miteinander, während sie ihre Verarbeitung ausführen. Häufige Anwendungsfälle sind rechnergestützte Fluiddynamik, Modellierungen zur Wettervorhersage, Materialsimulationen, Emulationen von Automobilkollisionen, räumliche Simulationen und das Verkehrsmanagement.
HPC ist seit Jahrzehnten ein wichtiger Bestandteil der akademischen Forschung und von Innovationen in der Industrie. HPC unterstützt Ingenieure, Datenwissenschaftler, Designer und andere Forscher bei der Lösung großer, komplexer Probleme. Und das in viel kürzerer Zeit und zu geringeren Kosten als dies mit herkömmlichen Computern möglich wäre.
Die Hauptvorteile von HPC sind:
HPC wird von Fortune 1000-Unternehmen in nahezu allen Branchen verwendet. Und seine Beliebtheit nimmt stetig zu. Laut einer Hyperion-Studie wird der weltweite HPC-Markt bis 2022 voraussichtlich ein Volumen von 44 Milliarden US-Dollar erreichen.
Im Folgenden sind einige Branchen aufgeführt, in denen HPC verwendet wird sowie die Arten von Workloads für deren Ausführung sie HPC einsetzen:
HPC kann On-Premises, in der Cloud oder in einem Hybridmodell durchgeführt werden, das Komponenten von beidem beinhaltet.
In einer On-Premise-HPC-Bereitstellung erstellt ein Unternehmen oder eine Forschungseinrichtung ein HPC-Cluster voller Server, Storage-Lösungen und anderer Infrastruktur, das im Laufe der Zeit verwaltet und aufgerüstet wird. In einer Cloud-HPC-Bereitstellung stellt ein Cloud Service Provider die Infrastruktur bereit und verwaltet sie. Unternehmen verwenden sie dann im Rahmen eines Pay-as-you-Go-Modells.
Einige Unternehmen nutzen Hybridbereitstellungen, insbesondere solche, die in eine On-Premise-Infrastruktur investiert haben, aber auch von der Geschwindigkeit, Flexibilität und den Kosteneinsparungen der Cloud profitieren möchten. Sie können in der Cloud einige HPC-Workloads fortlaufend ausführen und spontan Cloud-Services nutzen, wenn die Wartezeiten On-Premise zu einem Problem werden.
Unternehmen mit On-Premise-HPC-Umgebungen sichern sich ein großes Ausmaß an Kontrolle über ihre Abläufe. Aber sie müssen sich auch mit mehreren Problemen abfinden, wie etwa:
Teilweise aufgrund der Kosten und anderer Herausforderungen von On-Premise-Umgebungen werden cloudbasierte HPC-Bereitstellungen immer beliebter, wobei Market Research Future von 2017 bis 2023 ein weltweites Marktwachstum von 21 % erwartet. Wenn Unternehmen ihre HPC-Workloads in der Cloud ausführen, zahlen sie nur für das, was sie nutzen, und können schnell aufstocken bzw. reduzieren, wenn sich ihre Anforderungen ändern.
Um Kunden zu gewinnen und zu binden, bieten führende Cloud-Provider Spitzentechnologien an, die speziell auf HPC-Workloads ausgelegt wurden. Daher besteht keine Gefahr einer Leistungsminderung wie beim Veralten von On-Premise-Equipment. Cloud-Anbieter stellen die neuesten und schnellsten CPUs und GPUs sowie Flash-Storage mit geringer Latenz, blitzschnelle RDMA-Netzwerke und Sicherheit der Enterprise-Klasse zur Verfügung. Die Dienste sind täglich rund um die Uhr mit geringer oder gar keiner Wartezeit verfügbar.
Nicht alle Cloud-Anbieter sind gleich. Einige Clouds sind nicht für das HPC ausgelegt und können während der Spitzenzeiten mit hohen Arbeitslasten keine optimale Leistung gewährleisten. Die vier Merkmale, die bei der Auswahl eines Cloud-Providers berücksichtigt werden sollten, sind:
Im Allgemeinen ist es am besten, sich für Bare Metal-Cloud-Services zu entscheiden, die mehr Kontrolle und Leistung bieten. In Kombination mit RDMA-Cluster-Netzwerken bietet Bare Metal-HPC identische Ergebnisse zu denen vergleichbarer On-Premise-Hardware.
Unternehmen und Institutionen verschiedenster Branchen vertrauen auf HPC, um das Wachstum voranzutreiben, von dem erwartet wird, dass es voraussichtlich noch viele Jahre andauern wird. Der globale HPC-Markt wird voraussichtlich von 31 Milliarden US-Dollar im Jahr 2017 auf 50 Milliarden US-Dollar im Jahr 2023 anwachsen. Da sich die Cloud-Leistung weiter verbessert und noch zuverlässiger und leistungsfähiger wird, wird erwartet, dass ein Großteil dieses Wachstums bei cloudbasierten HPC-Bereitstellungen erfolgt, die Unternehmen von der Notwendigkeit entlasten, Millionen in eine Rechenzentrumsinfrastruktur und die damit verbundenen Aufwendungen zu investieren.
Für die nahe Zukunft wird eine Konvergenz von Big Data und HPC erwartet, bei der dasselbe große Computer-Cluster verwendet wird, um Big Data-Analysen durchzuführen und Simulationen oder andere HPC-Workloads auszuführen. Wenn diese beiden Trends konvergieren, wird sich daraus für jede der beiden Anwendungen noch mehr Rechenleistung und Kapazität ergeben. Dadurch werden künftig noch bahnbrechendere Forschungen und Innovationen möglich.
i Earl Joseph, Steve Conway, Bob Sorensen, Alex Norton. Aktualisierung zur Hyperion-Studie: ISC19. https://hyperionresearch.com/wp-content/uploads/2019/06/Hyperion-Research-ISC19-Breakfast-Briefing-Presentation-June-2019.pdf