www.wikidata.de-de.nina.az
Die OpenHPC Initiative ist ein kollaboratives Projekt unter dem Dach der Linux Foundation Es hat zum Ziel eine einfach installier und benutzbare Software Umgebung Framework fur High Performance Computing zu entwickeln und zu verbreiten Die fur das grundlegende Aufsetzen eines HPC ComputeClusters notwendigen Komponenten stehen als Open Source zur Verfugung Weitere optionale Komponenten Intel C Fortran Compiler diverse Performance Analyse Tools erfordern den Erwerb von Lizenzen ihrer jeweiligen Hersteller Logo des openHPC Projekts Inhaltsverzeichnis 1 Grundung 2 Ziele 3 Erstausgabe 4 Unterstutzte Betriebssysteme 5 Nutzung 6 Grundungsmitglieder 7 Weblinks 8 EinzelnachweiseGrundung BearbeitenDas Projekt wurde am 12 November 2015 wahrend der SC 15 von den unter Grundungsmitglieder genannten Firmen und Forschungseinrichtungen gegrundet 1 Ziele BearbeitenDas Projekt will erreichen dass openHPC 2 als ein robustes und vielfaltiges System aus miteinander integrierten Komponenten eine stark vereinfachte Nutzung von HPC Techniken ermoglicht eine stabile Software Umgebung zum Testen und Validieren eines breiten Spektrums an HPC Anwendungen bietet als integriertes Open Source Framework die Gesamtkosten fur die Inbetriebnahme einer eigenen HPC Umgebung verringert mit seinem flexiblen Konfigurationsmanagement und zueinander kompatiblen Software Paketen viele Einsatzfalle von HPC abdeckt und trotzdem die Integration mit anderen HPC Komponenten erlaubtDas Aufsetzen eines ComputeClusters erfordert eine Menge administrativer Arbeit Spezialisierte Systemadministratoren planen mit welcher Cluster Verwaltungssoftware sie ihr Cluster installieren und verwalten wollen mit welchen Werkzeugen sie es uberwachen und mit welchem ResourceManager Job Scheduler sie es durch die Benutzer mit Jobs Teilaufgaben beschicken wollen Dann installieren und konfigurieren sie auf dem n MasterNode s die ausgewahlte Software mittels der sie dann die ComputeNodes erfassen ihrerseits mit einem Betriebssystem versehen und in Betrieb nehmen OpenHPC will diese Vorgange dadurch vereinfachen dass ein einziger Software Stack bestehend aus weitgehend standardisierten und gegeneinander getesteten Komponenten aus einem einzigen Repository heraus installiert wird der sofort lauffahig ist und die Inbetriebnahme der ComputeNodes unmittelbar ermoglicht Den Integrationsaufwand der verschiedenen Komponenten hat dabei das openHPC Projekt bereits weitgehend erledigt so dass dem Betreiber nur geringer Konfigurationsaufwand entsteht Erstausgabe BearbeitenAm 5 Februar 2016 erschien mit OpenHPC 1 0 1 3 das erste Release des Frameworks Unterstutzte Betriebssysteme BearbeitenZurzeit wird openHPC nur gegen CentOS 7 1 entwickelt und getestet Es ist aber davon auszugehen dass es mit kompatiblen Linux Distributionen Red Hat Enterprise Linux oder Scientific Linux ebenso betrieben werden kann Nutzung BearbeitenDa HPC im Allgemeinen das scale out Prinzip Verteilung aufwendiger Rechnungen auf mehrere Compute Nodes vorsieht benotigt man einen Master Node der die Compute Nodes mit der openHPC Software und spater mit Teilaufgaben versorgt Zur Nutzung von openHPC reicht es im unterstutzten Basis Betriebssystem des Master Nodes das openHPC Repository einzutragen um den integrierten Software Stack herunterladen und installieren zu konnen Die Komponenten werden nach opt ohpc installiert was ein fur Master Node und alle Compute Nodes gemeinsames NFS Verzeichnis sein sollte Die im openHPC Projekt benutzten Komponenten sind Warewulf als image basierendes Compute Node Verwaltungssystem SLURM als Ressourcenmanager Batch Scheduler MPI Bibliotheken Intel MPI MVAPICH2 OpenMPI verschiedene wissenschaftliche Bibliotheken wie FFTW HDF5 mit serieller und paralleler I O Unterstutzung und die GNU Scientific Library GSL InfiniBand Treiber und Tools OFED PSM RDMA IPoIB Lustre Client fur das verteilte Filesystem Nagios Client zur Verfugbarkeitsuberwachung Ganglia zur Performance und Auslastungsuberwachung des Clusters Intel Cluster Checker zur Diagnose von Hard und Softwareproblemen lizenzpflichtig Intel Parallel Studio XE C C und Fortran Compiler u U lizenzpflichtig Grundungsmitglieder Bearbeiten in alphabetischer Reihenfolge Allinea Software Altair Engineering ANSYS des Argonne National Laboratory Atos Barcelona Supercomputing Center The Center for Research in Extreme Scale Technologies at Indiana University Cray Dassault Systemes SIMULIA Dell Fujitsu Systems Europe Hewlett Packard Enterprise Intel Corporation Julich Supercomputing Centre Lawrence Berkeley National Laboratory Lawrence Livermore National Laboratory Leibniz Supercomputing Centre Lenovo Los Alamos National Laboratory MSC Software NEC Oak Ridge National Laboratory Pacific Northwest National Laboratory ParTec Penguin Computing Pittsburgh Supercomputing Center Sandia National Laboratories SENAI CIMATEC SUSE Texas Advanced Computing CenterWeblinks BearbeitenWebsite des openHPC Projekts GitHub Seite des Projekts HPCwire Altair plant Open Source Ausgabe seines PBSPro HPC Workload Managers Grundungsbekanntmachung Heise Developer zum openHPC Projekt The Inquirer uber das openHPC Projekt ZDNet zum openHPC Projekt HPCwire uber das openHPC Projekt Scientific Computing uber das openHPC Projekt Das britische The Register uber openHPC Intel Blogs openHPC als Grab and Go Meals with Recipes fur die schnelle Inbetriebnahme moderner ComputeClusterEinzelnachweise Bearbeiten linuxfoundation org Memento des Originals vom 9 Marz 2016 im Internet Archive nbsp Info Der Archivlink wurde automatisch eingesetzt und noch nicht gepruft Bitte prufe Original und Archivlink gemass Anleitung und entferne dann diesen Hinweis 1 2 Vorlage Webachiv IABot www linuxfoundation org openhpc community openhpc community Abgerufen von https de wikipedia org w index php title OpenHPC amp oldid 236436417