www.wikidata.de-de.nina.az
Der Norddeutsche Verbund zur Forderung des Hoch und Hochstleistungsrechnens HLRN wurde 2001 durch ein Verwaltungsabkommen der sechs norddeutschen Bundeslander Berlin Bremen Hamburg Mecklenburg Vorpommern Niedersachsen und Schleswig Holstein mit dem Ziel der gemeinsamen Beschaffung und der Inbetriebnahme eines Computersystems zur Bearbeitung von Grand Challenges gegrundet Ende 2012 trat auch Brandenburg dem HLRN Verbund bei 1 Logo des Norddeutschen Verbundes fur Hoch und Hochstleistungsrechnen HLRN Der HLRN betreibt seit 2002 gemeinsam ein verteiltes Supercomputersystem an den Standorten Konrad Zuse Zentrum fur Informationstechnik Berlin Zuse Institut Berlin ZIB und Georg August Universitat Gottingen seit 2018 zuvor Gottfried Wilhelm Leibniz Universitat IT Services Hannover Inhaltsverzeichnis 1 Organisation und Struktur 2 Nutzung und Anwendungen 3 Historie 3 1 HLRN I 3 2 HLRN II 3 3 HLRN III 3 4 HLRN IV 4 Zentren fur Nationales Hochleistungsrechnen 5 Weblinks 6 EinzelnachweiseOrganisation und Struktur BearbeitenDas oberste Gremium des HLRN ist der Verwaltungsrat 2 der sich aus je einem Vertreter der Ministerien bzw Senatsbehorden eines jeden Mitgliedslandes zusammensetzt Der Verwaltungsrat entscheidet uber alle gemeinsamen Angelegenheiten die von grundsatzlicher Bedeutung sind Zu den standigen Kommissionen des HLRN gehoren der Wissenschaftliche Ausschuss und die Technische Kommission Der Wissenschaftliche Ausschuss entscheidet uber die Zulassung von Projekten und die Vergabe von Betriebsmitteln Kontingenten Die Technische Kommission berat den Verwaltungsrat und die Betreiberzentren wahrend der Planung und in allen technischen Fragen Die HLRN Fachberater unterstutzen in einem uberregionalen Kompetenznetzwerk die Anwender und ihre Projekte Nutzung und Anwendungen BearbeitenDas HLRN System kann auf Antrag von Wissenschaftlern der Universitaten und Forschungseinrichtungen der sieben norddeutschen Lander genutzt werden Anderen Anwendergruppen steht das System auf Antrag und gegen Gebuhr zur Verfugung Die Rechnerressourcen werden vor allem fur numerische Modellrechnungen aus den Hauptanwendungsgebieten Umweltforschung Klima und Meereswissenschaften Ingenieuranwendungen wie Aero und Fluiddynamik zum Beispiel Flugzeug und Schiffbau sowie Grundlagenwissenschaften wie Physik Chemie und Lebenswissenschaften genutzt Anwendungsgebiete sind unter anderem die Triebwerksentwicklung die Vorhersage von Wirbelsturmen die Optimierung von Windenergieanlagen sowie die Klima und Meeresforschung 3 Aus Sicht der Nutzer wirkt das uber die beiden Standorte in Berlin und Hannover verteilte System wie ein grosser Komplex Einsystemeigenschaft Beispielsweise verteilt ein gemeinsames Batchsystem Rechenjobs auf die beiden HLRN III Komplexe Die Nutzerverwaltung Abrechnung sowie die Systemadministration erfolgen zentralisiert Historie BearbeitenHLRN I Bearbeiten Von 2002 bis 2008 betrieb der HLRN Verbund an den beiden Standorten in Berlin und Hannover einen symmetrisch verteilten Parallelrechner IBM pSeries 690 Regatta aus insgesamt 1024 IBM Power4 Prozessoren Die beiden Standorte waren uber eine dedizierte Glasfaserverbindung HLRN Link miteinander verbunden In der TOP500 Liste von November 2002 4 belegten die beiden Standorte die Platze 44 und 45 HLRN II Bearbeiten nbsp HLRN II Rechner am Standort HannoverVon 2008 bis Anfang 2014 betrieb der HLRN Verbund ein Computer System von SGI das ebenfalls symmetrisch uber die beiden Standorte verteilt und uber eine dedizierte Glasfaserverbindung mit 10GigE miteinander verbunden waren In einer ersten Ausbaustufe wurden Mitte 2008 an den beiden Standorten jeweils 44 SGI Altix XE 250 Server sowie 320 SGI Altix ICE 8200 Blades installiert Jeder Rechenknoten war mit je zwei Intel Xeon E5472 Quad Core Harpertown Prozessoren mit 3 0 GHz ausgestattet Der Hauptspeicher umfasste 64 GByte Altix XE bzw 16 GByte Altix ICE 8200 Alle Rechenknoten waren uber ein 4x DDR Infiniband Netzwerk fur die Kommunikation und den Datenaustausch uber MPI untereinander sowie uber ein weiteres 4x DDR Infiniband Netzwerk mit einem 405 TByte grossen globalen Hintergrundspeichersystem auf Lustre Basis verbunden und wurden mit dem freien Betriebssystem Linux betrieben Der Hauptspeicherausbau der ersten Stufe umfasste acht TByte die maximale Rechenleistung Peak Performance betrug 35 3 TFlop s In einer zweiten Ausbaustufe wurden Mitte 2009 an jedem Standort jeweils vier weitere SGI Altix XE 250 Server sowie 960 SGI Altix ICE 8200 Blades installiert wobei die neuen Blades mit je zwei Intel Xeon X5570 Quad Core Nehalem EP Gainestown Prozessoren mit 2 93 GHz und 48 GByte Hauptspeicher ausgestattet und uber 4x DDR Dual Rail Infiniband verbunden waren Das globale Hintergrundspeichersystem wurde auf 810 TByte je Standort erweitert Der Hauptspeicherausbau der zweiten Stufe umfasste 45 TByte die maximale Rechenleistung Peak Performance betrug 90 TFlop s In der TOP500 Liste vom November 2009 5 belegten die beiden Standorte die Platze 39 und 40 In einer dritten Ausbaustufe wurden Mitte 2010 an beiden Standorten jeweils funf SGI Altix UltraViolet 1000 installiert Jeweils vier von diesen Systemen je Standort umfassten jeweils 32 Blades mit je zwei Intel Xeon X7560 Octo Core Nehalem EX Beckton Prozessoren mit 2 23 GHz und 64 GByte Hauptspeicher Die 32 Blades eines jeden Systems waren uber einen SGI NUMAlink5 miteinander verbunden und stellten damit einen 2 TByte grossen globalen Adressraum als NUMA System zur Verfugung Das funfte System umfasste jeweils 24 Blades mit insgesamt 1 5 TByte globalem Hauptspeicher Ausserdem umfasste das Gesamtsystem circa 20 TByte fur Heimatverzeichnisse die zwischen den beiden Standorten synchron repliziert wurden sowie zwei Archivspeichersysteme auf Basis der StorageTek SL8500 Tape Library von Oracle mit insgesamt 6 5 PByte Speicherkapazitat HLRN III Bearbeiten nbsp Supercomputer Gottfried des HLRN III Systems Anfang 2014 beim Leibniz Universitat IT Services in HannoverIm Herbst 2013 ging die dritte Generation des HLRN in Betrieb 6 Mitte Januar 2014 wurde die Phase 1 des im Endausbau 2 6 PetaFlop s System der Firma Cray offiziell eingeweiht 7 Die HLRN III Komplexe stehen beim Leibniz Universitat IT Services LUIS fruher RRZN in Hannover sowie am Konrad Zuse Zentrum fur Informationstechnik Berlin ZIB und sind uber eine dedizierte Glasfaserverbindung von 10GigE miteinander verbunden 8 Der Komplex in Hannover ist nach dem Universalgelehrten und Mathematiker Gottfried Wilhelm Leibniz als Gottfried benannt 9 Der Komplex in Berlin tragt den Namen Konrad des Computerpioniers Konrad Zuse Die erste Phase der beiden Cray XC30 Rechner bestand jeweils aus 744 Rechenknoten mit insgesamt 1488 Dual Socket Xeon E5 2695v2 Prozessoren von Intel mit insgesamt 93 TB Hauptspeicher die uber ein schnelles Cray Aries Netzwerk mit Dragonfly Topologie verbunden sind Sie bieten gegenuber dem Vorgangersystem HLRN II die doppelte Rechenleistung nbsp HLRN III Supercomputer Konrad am Zuse Institut Berlin nach der Erweiterung im Herbst 2014In einer zweiten Ausbauphase im Herbst 2014 wurde der HLRN III auf insgesamt 3552 Rechenknoten mit 85248 Compute Cores mit 1872 Rechenknoten in Berlin 10 und 1680 Rechenknoten in Hannover 11 und zusammen 2 7 PetaFlop s Peak Performance sowie 222 TB Hauptspeicher erweitert Dadurch wurde die Rechenleistung des Systems gegenuber dem Vorgangersystem HLRN II verzehnfacht Erganzt werden die massiv parallelen Supercomputer durch Serviceknoten fur Login Datenmanagement sowie speicherintensives Pre und Postprocessing Am Standort Hannover stehen fur weniger skalierende und speicherintensive Anwendungen 64 SMP Knoten mit je 4 Intel Xeon Prozessoren und je 256 bzw 512 GB Hauptspeicher zur Verfugung Von den Supercomputern den SMP Komponenten und den Serviceknoten konnen Nutzer auf ein paralleles Dateisystem Lustre mit einer Gesamtkapazitat von 2 7 PB zugreifen In der TOP500 Liste von November 2014 12 belegen die beiden Supercomputer die Platze 51 und 61 13 Platze 118 und 150 in November 2017 Die Investitionskosten die von den sieben am HLRN beteiligten Bundeslandern sowie dem Bund jeweils zur Halfte getragen werden belaufen sich auf 30 Millionen Euro Ende 2014 nutzen mehr als 850 Wissenschaftler im Rahmen von uber 150 Grossprojekten die Rechenleistung des HLRN III HLRN IV Bearbeiten 2018 wurden die Kaufvertrage fur die neuen Hochleistungsrechnersysteme der vierten Generation des HLRN mit den beiden Komponenten Lise und Emmy an den Standorten Berlin und Gottingen unterzeichnet Die beiden Systemkomponenten sind nach den der Physikerin Lise Meitner und der Mathematikerin Emmy Noether benannt In der TOP500 Liste von November 2020 belegen die beiden Supercomputer die Platze 47 14 und 55 15 Die neuen HLRN IV Rechnersysteme der Firma Atos Bull im Wert von 30 Millionen Euro wurden in zwei Phasen Phase 1 im Jahr 2018 Phase 2 im Jahr 2019 installiert und von den sieben HLRN Landern Berlin Brandenburg Bremen Hamburg Mecklenburg Vorpommern Niedersachsen und Schleswig Holstein sowie dem Bund jeweils zur Halfte finanziert Der HLRN IV ersetzt die bisherigen HLRN III Systeme und wird mit knapp einer Viertelmillion Rechenkernen rund 1000 TB Hauptspeicher und einer Rechenleistung von circa 16 PetaFlop s die verfugbare Leistung etwa versechsfachen Damit bietet er den Forschern die Moglichkeit fur noch prazisere Modellrechnungen z B in der Umweltforschung in den Lebens Material und Ingenieurwissenschaften und in der Grundlagenforschung auf den Gebieten der Physik Chemie und Mathematik Das seit der Installation des HLRN I Systems im Jahr 2002 bewahrte Konzept mit zwei Betreiberstandorten in den Landern Berlin und Niedersachsen wird vom HLRN Verbund weiterhin verfolgt In Berlin und Niedersachsen sind die Betreiberzentren das Zuse Institut Berlin und die Georg August Universitat Gottingen die aufgrund ihrer langjahrigen Erfahrung mit Betrieb und Weiterentwicklung von Hoch und Hochstleistungsrechnern durch die Gesellschaft fur wissenschaftliche Datenverarbeitung mbH Gottingen die kompetente systemtechnische Betreuung der Nutzer transparent sicherstellen werden Zentren fur Nationales Hochleistungsrechnen Bearbeiten2020 einigten sich Bund und Lander in der Sitzung der Gemeinsamen Wissenschaftskonferenz GWK darauf insgesamt acht Zentren fur Nationales Hochleistungsrechnen NHR zu etablieren In die Forderung aufgenommen wurden die Standorte Berlin und Gottingen Damit verbunden sind Fordermittel in Hohe von insgesamt rund 144 Millionen Euro uber zehn Jahre von denen die Standorte Berlin und Gottingen jeweils rund 72 Millionen Euro erhalten 16 Weblinks BearbeitenWebseite des HLRNEinzelnachweise Bearbeiten Anderungsabkommen zum HLRN Verwaltungsabkommen vom 14 Dezember 2012 Organisation und Struktur des HLRN Pressemitteilung des Niedersachsischen Ministeriums fur Wissenschaft und Kultur Grunes Licht fur Norddeutschlands grossten Supercomputer vom 16 Januar 2014 TOP500 von November 2002 TOP500 von November 2009 HLRN Pressemitteilung Neuer Supercomputer fur die Spitzenforschung in Norddeutschland vom 17 Dezember 2012 Feierliche Einweihung des HLRN III Hochleistungsrechners in Hannover backPid 135 amp tx ttnews tt news 1409 amp cHash 1a23b73dcfc9f9958fd401eebcb36918 1 backPid 135 amp tx ttnews tt news 1409 amp cHash 1a23b73dcfc9f9958fd401eebcb36918 2 Vorlage Toter Link www rrzn uni hannover de Seite nicht mehr abrufbar festgestellt im Dezember 2022 backPid 135 amp tx ttnews tt news 1409 amp cHash 1a23b73dcfc9f9958fd401eebcb36918 Suche in Webarchiven nbsp Info Der Link wurde automatisch als defekt markiert Bitte prufe den Link gemass Anleitung und entferne dann diesen Hinweis Norddeutschlands Supercomputer lauft bei ndr de vom 16 Januar 2014 Bernd Haase Hannovers neuer Supercomputer Gottfried gibt Gas in Hannoversche Allgemeine Zeitung vom 16 Januar 2014 Memento des Originals vom 21 Januar 2014 im Internet Archive nbsp Info Der Archivlink wurde automatisch eingesetzt und noch nicht gepruft Bitte prufe Original und Archivlink gemass Anleitung und entferne dann diesen Hinweis 1 2 Vorlage Webachiv IABot www haz de 744 Knoten mit Dual Socket Intel Xeon E5 2695v2 Ivy Bridge und 1128 Knoten mit Dual Socket Intel Xeon E5 2680v3 Haswell EP 744 Knoten mit Dual Socket Intel Xeon E5 2695v2 Ivy Bridge und 936 Knoten mit Dual Socket Intel Xeon E5 2680v3 Haswell EP TOP500 von November 2014 HLRN NewsCenter Artikel Gottfried and Konrad in the Top 500 Emmy BullSequana X Intel Xeon Platinum 9242 Gold 6148 Intel Omni Path TOP500 abgerufen am 28 Dezember 2020 Lise Bull intel Cluster Intel Xeon Platinum 9242 48C 2 3GHz Intel Omni Path TOP500 abgerufen am 28 Dezember 2020 Forderung von acht Rechenzentren im Rahmen des Nationalen Hochleistungsrechnens beschlossen Gemeinsame Wissenschaftskonferenz GWK abgerufen am 19 November 2020 Abgerufen von https de wikipedia org w index php title Norddeutscher Verbund fur Hoch und Hochstleistungsrechnen amp oldid 229080006