Header image 1481201547

Rechencluster am AEI

Das Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut) betreibt Hochleistungsrechner seit seinem Bestehen. Aktuell gibt es an jedem der Standorte (Hannover und Potsdam) ein großes Rechenzentrum. In Hannover werden die Daten der Gravitationswellendetektoren nach Signalen durchsucht. In Potsdam werden sowohl komplexe numerische Simulationen durchgeführt als auch Gravitationswellendaten analysiert.

Allzweck-Hochleistungs-Rechencluster

Seit 2003 unterhält das AEI High Performance Computing (HPC) Cluster. Der erste Cluster, Peyote, wurde 2003 installiert und war damals auf Platz 395 der Top 500 Liste. In 2005 wurde der HPC Cluster Belladonna installiert, welcher 2007 von Damiana (Rang 192 der Top 500 Liste von 2007) ersetzt wurde. 2011 wurde Datura mit seinen 200 Nodes installiert.

Hochleistungsrechner Minerva am AEI in Potsdam-Golm. Bild vergrößern
Hochleistungsrechner Minerva am AEI in Potsdam-Golm.
Der Hochleistungscluster Sakura bei der Max Planck Computing and Data Facility (MPCDF) in Garching wird für numerisch-relativistische Simulationen energiereicher astrophysikalischer Ereignisse eingesetzt. Bild vergrößern
Der Hochleistungscluster Sakura bei der Max Planck Computing and Data Facility (MPCDF) in Garching wird für numerisch-relativistische Simulationen energiereicher astrophysikalischer Ereignisse eingesetzt. [weniger]

2016 wurde der HPC-Cluster Minerva in Betrieb genommen. Mit Minerva werden hauptsächlich numerisch-relativistische Simulationen von verschmelzenden schwarzen Löchern und Neutronensternen durchgeführt, um die entstehende Gravitationswellenstrahlung zu berechnen. Der Cluster wurde mit 365,0 TFlop/s auf Platz 463 der Top 500 Liste eingeordnet. Minerva besitzt 594 Nodes (Dual-socket, 8 Kern Intel Haswell E5-2630v3 (2.40GHz)) mit 9504 Kernen, welche jeweils mit 4GB RAM ausgestattet sind. Es existieren 2 BeeGFS Festplattenspeicher mit insgesamt 500TB.

Im Jahr 2019 nahm Sakura, ein HPC-Cluster an der Max Planck Computing and Data Facility (MPCDF), seinen Betrieb auf. Numerisch-relativistische Simulationen astrophysikalischer Ereignisse, die sowohl Gravitationswellen als auch elektromagnetische Strahlung erzeugen - z.B. Verschmelzungen von Neutronensternen - werden auf Sakura durchgeführt. Der 11.600 CPU-Core-Computer-Cluster ist in ein schnelles Omnipath-100-Netzwerk und 10 GB Ethernet-Verbindungen integriert. Es besteht aus Kopfknoten mit Intel Xeon Silver 10-Kern-Prozessoren und 192GB bis 384GB Hauptspeicher sowie Rechenknoten mit Intel Xeon Gold 6148 CPUs.

Datenanalyse-Rechencluster

Der Computercluster Atlas am AEI Hannover ist der weltweit leistungsfähigste zur Gravitationswellen-Datenanalyse genutzte Großrechner.

Hochleistungsrechner Atlas am AEI in Hannover. Bild vergrößern
Hochleistungsrechner Atlas am AEI in Hannover.

Atlas wurde im Mai 2008 eingeweiht und bestand zu diesem Zeitpunkt aus 1344 Quadcore-Rechenknoten. Einen Monat später zog er auf Platz 58 in der Top-500-Liste der schnellsten Rechner der Welt ein; damit war er außerdem der sechstschnellste Computer in Deutschland.

Er war zudem der schnellste Computer der Welt, der Ethernet als Netzwerktechnologie einsetzte. Dies ist bemerkenswert, weil Ethernet eine relativ preiswerte Netzwerktechnologie ist. Die schnelleren Computer der Top-500-Liste nutzen allesamt deutlich teurere Verbindungen wie Infinband oder andere proprietäre Technologien. In anderen Worten: gemessen am Preis-Leistungsverhältnis war Atlas weltweit führend. In Anerkennung dafür erhielt Atlas einen „InfoWorld 100 Award“ als eine der 100 besten IT-Lösungen im Jahr 2008.

Derzeit besteht Atlas aus mehr als 2.500 Rechenservern, mit insgesamt etwa 40.000 CPU-Kernen (logical central processing unit) und etwa 2.000 Grafikprozessoren (GPUs). Atlas kann 5,5 Petabytes auf Festplatten und 15 Petabytes auf Magnetband zur Datenarchivierung speichern. Die Spitzenrechenleistung von Atlas liegt in der Größenordnung von einem PetaFLOP/s. Für die Verbindung aller Rechenknoten wurden insgesamt 15 Kilometer Ethernet-Kabel verwendet. Die gesamte Bandbreite beträgt 20 Terabit/s.

Neben dem Atlas-Cluster in Hannover betreibt das AEI einen Computer-Cluster in Potsdam, der Wissenschaftler*innen des AEI und ihren Mitarbeiter*innen weltweit zur Verfügung steht. Nach Merlin (2002-2008), Morgane (2007-2014) und Vulcan (2013 - 2019) stellt Hypatia seit 2019 rund 9.000 Prozessorkerne (in 16-Core AMD EPYC CPUs) zur Verfügung. Hypatia ist der Analyse von Gravitationswellendaten gewidmet und dient der Erforschung von Eigenschaften schwarzer Löcher, Neutronensterne und anderer potenzieller Gravitationswellenquellen.

Hypatia, der neue High-Throughput-Computercluster am Albert-Einstein-Institut in Potsdam. Bild vergrößern
Hypatia, der neue High-Throughput-Computercluster am Albert-Einstein-Institut in Potsdam.

Hypatia ist ein Computercluster für die Analyse von Gravitationswellendaten. In der LIGO-Virgo-Kollaboration wird dieser Cluster benutzt um neue Methoden zu entwickeln und zu testen, für großangelegte Monte-Carlo Simulationen, die Entwicklung von Wellenformen and die Untersuchung systematischer Abweichungen. Als Teil des LISA-Konsortiums beteiligen sich AEI-Wissenschaftler*innen derzeit an der Entwicklung des Science Case für LISA. Im Rahmen der European Pulsar Timing Array-Kollaboration suchen wir nach Gravitationswellensignalen von Binärsystemen supermassiver schwarzer Löcher im nano Hertz-Bereich. 

Wie Atlas am AEI Hannover wurde auch Hypatia für High Throughput Computing (HTC) designed, und eignet sich am besten dafür, viele von einander unabhängige Operationen parallel auszuführen. Hypatia wurde aus Standardteilen gebaut und nutzt ein Gigabit-Ethernet-Network. Die laufenden Rechenprozesse können insgesamt bis zu 34 TB Speicher nutzen und sie verwenden 400 TB Plattenspeicher. Für die Zuordnung von Ressourcen zu den Arbeitsaufträgen wird HTCondor als batch scheduler genutzt.

Im Rahmen der LIGO Scientific Collaboration (LSC) dient Hypatia auch als Testumgebung für Software sowie für alternative Prozessorarchitekturen, Speicherkonzepte und Betriebssysteme.

 
loading content
Zur Redakteursansicht