Was ist High Performance Computing (HPC)?

Interview mit dem HPC-Experten Daniel Menzel (Menzel IT GmbH)
News | 09.12.2022

Sonja Philipp (Data Center Group): Daniel, danke, dass du hier bist. Wer bist du, was machst du, und was macht Menzel IT?

Daniel Menzel (Menzel IT GmbH): Mein Name ist Daniel Menzel, ich bin Gründer und Geschäftsführer der Menzel IT GmbH. Wir sind ein Unternehmen aus Berlin, welches sich auf Hochleistungs-Infrastrukturen, HPC genannt, und private Cloud Computing Cluster spezialisiert hat.

SP: Die Menzel IT und die Data Center Group haben schon einmal zusammengearbeitet. Wodurch kam der Kontakt zustande und um was ging es in dem Projekt?

DM: Wir haben uns durch einen gemeinsamen Kunden kennengelernt, welcher in der Forschung ansässig ist. Menzel IT betreute den Kunden schon länger und die Data Center Group ist dann als Rechenzentrumsplaner dazu gestoßen. Wir haben dafür gesorgt, dass sowohl die Infrastruktur als auch die IT darin funktionieren.

SP: Du sprachst eben von einer Spezialisierung eurer Firma auf HPC. Was kann man sich darunter vorstellen?

DM: Für HPC gibt es verschiedene Definitionen: Eine basiert auf der Grundannahme, man hat leistungsstarke Server- und leistungsstark bedeute eben High Performance. Im eigentlichen Sinne und das ist die Definition, der wir auch folgen, bedeutet HPC die Simulation in der Forschung- z.B. für 5G, 6G, Crash Simulationen oder fluide Simulationen. Kurz gesagt: Modellierung der realen Welt in Mathematik, für die man Rechenpower und -kapazität benötigt.

SP: Was sind typische Anwendungen und Rechenleistungen im Bereich HPC? Was wird berechnet und was ist das Endprodukt?

DM: Am Ende der Simulation entsteht immer eine Zeile oder ein Bild. Und davor steht immer die Übersetzung eines realen Themas in Mathematik. Wenn ein Ingenieur oder Naturwissenschaftler das Problem durchdrungen hat, ist er in der Lage, das Problem in verschiedenen Rechenproblemen auszudrücken, beispielsweise Mobilfunk-Optimierung, Crashtests, oder: Wie bekomme ich 2 Tonnen Stahl in eine Form, ohne dass sie mir unterwegs erkalten? Aber auch Sprengsimulationen oder fluide Simulationen können als reales Problem in Mathematik übersetzt werden. HPC kann aber auch ebenso in der Klimaforschung- in der heutigen Zeit immer relevanter- eingesetzt werden. Die Wettervorhersage wird beispielsweise von spezialisierten HPC-Clustern berechnet, welche die gesammelten Inputwerte in ein großes mathematisches Modell kippen, was am Schluss zur Wettervorhersage führt. All diese Anwendungsfälle werden zu ähnlicher Mathematik und können dann im HPC berechnet werden. 
 

SP: Aus welchen Komponenten besteht HPC und welche sind besonders wichtig?

DM: Ein HPC Cluster besteht im Wesentlichen aus einem Server, welcher CPUs und GPUs1 beinhaltet. Diese Server interagieren als ein großes System und benötigen in der Regel einen zentralisierten Storage, den das Netzwerk braucht, um sich mit Daten zu versorgen und Interprozesskommunikation zu betreiben. Das bedeutet: Server 1 spricht mit Server 2, Server 3 spricht mit Server 17 etc. Die einzelnen Server nennen wir Compute Nodes, weil es das einzelne Device ist. 
SP: Du hast eben von Clustern gesprochen. Cluster ist dann ein Zusammenschluss aus vielen dieser Nodes? 
DM: Genau. Angefangen bei kleinen Clustern mit 5-7 Nodes bis hin zu den großen, wo 500, 600, vielleicht sogar 1000 Server in einer sogenannten „Queue“, also als eine Entität zusammenarbeiten, und an der gleichen mathematischen oder physikalischen Aufgabe zusammenrechnen.

SP: Dieser Aufbau klingt technisch sehr komplex. Was sind Besonderheiten oder Anforderungen an die IT-Infrastrukturen eines High Performance-Rechenzentrums im Vergleich zu einem klassischen Rechenzentrum?

DM: HPC bedeutet: Ich brauche von allem viel. Das fängt in der Infrastruktur schon beim Strom an. HPC bedeutet Leistungsdichten, in denen 40, 50, ja sogar 60 kW in ein Rack reinkommen, die natürlich auch als Kühlung rauskommen müssen.

SP: HPC ist dementsprechend sehr energieintensiv. Gibt es Bestrebungen oder Strategien, das Thema effizienter und nachhaltiger zu gestalten?  Gibt es in dieser Richtung auch Technologien?

DM: Es gibt in jedem Falle Technologien, das Thema nachhaltiger zu gestalten. Auf der Infrastrukturseite überlege ich mir, wie ich die Energie sowohl effizient einspeise als auch gekühlt bekomme. Das Thema Wasserkühlung ist beim Thema HPC ein sehr großes, da ich die Energie anderweitig nicht aus dem System herausbekomme. Es gibt aber auch Bestrebungen, den Code effizienter zu schreiben. Es macht einen gewaltigen Unterschied, ob ich 3, 5 oder 10 Tage am Stück rechnen muss. Sowohl in puncto Schnelligkeit als auch der Kosten. Wenn ich 2 bis 5 Tage 150, 200 oder 500 kW verbrauche, sehe ich das auch irgendwann auf meiner Stromrechnung. Es gibt erstaunlich viele Möglichkeiten, welche viel zu selten ausgenutzt werden. Auch da kommt die Menzel IT GmbH ins Spiel, um zu beraten.

Hier sehen Sie das komplette Interview:

SP: Gehen wir davon aus, ich bin ein Forschungsinstitut und überlege, ob ich On Prem arbeiten oder die Daten in die Cloud verlagern möchte. Was sind Vor- und Nachteile der beiden Modelle?

DM: Die Cloud hat natürlich immer den Vorteil der schnellen Verfügbarkeit. Ein großer Nachteil ist die Datensicherheit. In der Forschung ist diese aufgrund von „Intellectual Property“ und Patenten von großer Bedeutung, da man aufgrund von Konfigurationsfehlern schnell in Gefahr gerät, dass Konkurrenten an wichtige Daten gelangen. Nicht wegen eines Fehlers des Cloud-Providers, sondern aufgrund von Fehlern des Admins. Institute fühlen sich sicherer, ein Rechenzentrum vor Ort hinter einem VPN aufgebaut zu haben. Auf der anderen Seite haben vor allem Start-Ups keine Kapazität, sei es monetär oder logistisch, ein Rechenzentrum zu bauen. Aber wenn ein Unternehmen wächst, lohnt es sich. Bei Betrachtungen auf 2 oder 3 Jahre ist man bei Cloud Infrastrukturen beim Faktor 2 oder 3. Die Minutenpreise der Cloudprovider kaschieren in diesem Fall. Die Infrastruktur muss im Falle der HPC aber auch genutzt werden. Da reicht es nicht, den Browser zu öffnen. Die Software muss zum Laufen gebracht werden, das Queuing-System muss funktionieren, mein Storage muss laufen. Diese Dinge benötigen immer noch sehr, sehr viel Expertise und dementsprechend Men- und Women-Power. Deswegen ist die Kostenrechnung langfristig gesehen sehr on premises.

SP: Deine Prognose: Wo geht die Reise hin? Was sind Entwicklungen der Zukunft?

DM: Ich glaube, dass die Menge dessen, was simuliert wird, zukünftig noch weiter zunimmt. Crashtest-Simulationen sind in diesem Fall ein gutes Beispiel. Es ist wahnsinnig teuer, ein neues Auto mit geänderten Parametern immer wieder neu aufzubauen. Am PC dagegen muss ich nur an ein paar Reglern drehen und rechne dann einfach noch einmal neu: Lässt sich diese Zelle jetzt besser oder schlechter stauchen, um die Personen zu beschützen? Die Zukunft wird sein, erst im allerletzten Schritt reale Dinge sowie Prozesse zu testen und stattdessen zunächst digital zu simulieren.

SP: Vielen Dank für das Gespräch und die Erläuterungen zum Thema HPC.

DM: Sehr gerne. Danke schön.

1 CPU (Central Processing Units, Prozessor), GPU (Graphic Processing Units, Grafikprozessor) 
 

 

Bild: © peach_adobe / #436585107 / stock.adobe.com (Standardlizenz) 

Kontaktieren Sie uns gerne

Um mehr über unsere Produkte und Dienstleistungen zu erfahren, treten Sie gerne in persönlichen Kontakt. Nutzen Sie dafür das Kontaktformular oder rufen Sie uns einfach an. Wir freuen uns auf Sie!

Verwandte Nachrichten

Was können wir für Sie tun?

Gemeinsam finden wir die passenden Produkte und Dienstleistungen für Ihre individuellen Bedürfnisse. Um mehr zu erfahren, treten Sie gerne in persönlichen Kontakt. Nutzen Sie dafür unser Kontaktformular oder rufen Sie uns einfach an. Wir freuen uns auf Sie!

Ansprechpartner finden