High Performance Computing -High-performance computing

Das Zentrum für Nanomaterialien an der Advanced Photon Source

Hochleistungsrechnen ( HPC ) verwendet Supercomputer und Computercluster , um fortgeschrittene Berechnungsprobleme zu lösen. Heute werden Computersysteme, die sich der Teraflops -Region nähern , zu den HPC-Computern gezählt.

Überblick

HPC integriert Systemverwaltung (einschließlich Netzwerk- und Sicherheitswissen) und parallele Programmierung in ein multidisziplinäres Feld, das digitale Elektronik , Computerarchitektur , Systemsoftware , Programmiersprachen , Algorithmen und Computertechniken kombiniert. HPC-Technologien sind die Tools und Systeme, die zum Implementieren und Erstellen von Hochleistungs-Computing-Systemen verwendet werden. In letzter Zeit haben sich HPC-Systeme von Supercomputing zu Computing- Clustern und -Grids verlagert . Aufgrund der Notwendigkeit von Netzwerken in Clustern und Grids werden High Performance Computing-Technologien durch die Verwendung eines zusammengebrochenen Netzwerk-Backbones gefördert , da die zusammengebrochene Backbone-Architektur einfach zu beheben ist und Upgrades auf einen einzelnen Router angewendet werden können, im Gegensatz zu mehreren .

Der Begriff wird am häufigsten mit Computern in Verbindung gebracht, die für wissenschaftliche Forschung oder Computational Science verwendet werden . Ein verwandter Begriff, High Performance Technical Computing ( HPTC ), bezieht sich im Allgemeinen auf die technischen Anwendungen von Cluster-basiertem Computing (wie z. B. Computational Fluid Dynamics und das Erstellen und Testen virtueller Prototypen ). HPC wurde auch für geschäftliche Anwendungen wie Data Warehouses , Branchenanwendungen (LOB) und Transaktionsverarbeitung eingesetzt .

High Performance Computing (HPC) als Begriff entstand nach dem Begriff „ Supercomputing “. HPC wird manchmal als Synonym für Supercomputing verwendet; aber in anderen Kontexten wird „ Supercomputer “ verwendet, um sich auf eine leistungsstärkere Teilmenge von „Hochleistungscomputern“ zu beziehen, und der Begriff „Supercomputing“ wird zu einer Teilmenge von „Hochleistungsrechnen“. Das Potenzial für Verwirrung bei der Verwendung dieser Begriffe ist offensichtlich.

Da die meisten aktuellen Anwendungen nicht für HPC-Technologien entwickelt, sondern nachgerüstet werden, sind sie nicht für die Skalierung auf leistungsstärkere Prozessoren oder Maschinen konzipiert oder getestet. Da Netzwerk-Cluster und -Grids mehrere Prozessoren und Computer verwenden, können diese Skalierungsprobleme kritische Systeme in zukünftigen Supercomputing-Systemen lahmlegen. Daher richten sich entweder die existierenden Tools nicht an die Bedürfnisse der High-Performance-Computing-Community oder die HPC-Community kennt diese Tools nicht. Einige Beispiele für kommerzielle HPC-Technologien sind:

  • die Simulation von Autounfällen für die Strukturkonstruktion
  • Molekulare Interaktion für das Design neuer Medikamente
  • der Luftstrom über Autos oder Flugzeuge

In Regierungs- und Forschungseinrichtungen simulieren Wissenschaftler die Entstehung von Galaxien, Fusionsenergie und globale Erwärmung und arbeiten daran, genauere kurz- und langfristige Wettervorhersagen zu erstellen. Der zehntstärkste Supercomputer der Welt, IBM Roadrunner (befindet sich im Los Alamos National Laboratory des US-Energieministeriums ) , simuliert die Leistung, Sicherheit und Zuverlässigkeit von Atomwaffen und zertifiziert ihre Funktionalität.

TOP500

Eine Auflistung der leistungsstärksten Hochleistungsrechner findet sich in der TOP500 - Liste. Die TOP500-Liste listet die 500 schnellsten Hochleistungscomputer der Welt, gemessen am High Performance LINPACK (HPL) Benchmark . Nicht alle Computer werden aufgelistet, entweder weil sie nicht berechtigt sind (z. B. weil sie den HPL-Benchmark nicht ausführen können) oder weil ihre Besitzer keinen HPL-Score eingereicht haben (z. B. weil sie nicht möchten, dass die Größe ihres Systems zu Verteidigungszwecken öffentlich bekannt wird Gründe dafür). Darüber hinaus ist die Verwendung des einzelnen LINPACK-Benchmarks umstritten, da keine einzelne Maßnahme alle Aspekte eines Hochleistungscomputers testen kann. Um die Einschränkungen des LINPACK-Tests zu überwinden, beauftragte die US-Regierung einen ihrer Urheber, Jack Dongarra von der University of Tennessee, mit der Erstellung einer Reihe von Benchmark-Tests, die LINPACK und andere umfasst, die sogenannte HPC Challenge-Benchmark-Suite. Diese sich entwickelnde Suite wurde bei einigen HPC-Beschaffungen verwendet, aber da sie nicht auf eine einzige Zahl reduzierbar ist, konnte sie den Werbevorteil des weniger nützlichen TOP500 LINPACK-Tests nicht überwinden. Die TOP500-Liste wird zweimal im Jahr aktualisiert, einmal im Juni auf der ISC European Supercomputing Conference und erneut auf einer US Supercomputing Conference im November.

Viele Ideen für die neue Grid-Computing -Welle wurden ursprünglich von HPC übernommen.

Hochleistungsrechnen in der Cloud

Traditionell hat HPC eine On-Premise-Infrastruktur involviert und in Supercomputer oder Computercluster investiert. In den letzten zehn Jahren hat Cloud Computing an Popularität gewonnen, um Computerressourcen im kommerziellen Sektor unabhängig von ihren Investitionsmöglichkeiten anzubieten. Einige Merkmale wie Skalierbarkeit und Containerisierung haben auch das Interesse in der Wissenschaft geweckt. Sicherheitsaspekte in der Cloud wie die Vertraulichkeit von Daten werden jedoch bei der Auswahl einer Cloud oder eines On-Premise-HPC immer noch berücksichtigt .

Siehe auch

Verweise

Externe Links