Rechencluster am AEI

Das Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut) betreibt Hochleistungsrechner seit seinem Bestehen. Aktuell gibt es an jedem der Standorte (Hannover, Potsdam-Golm) ein großes Rechenzentrum. In Hannover werden die Daten der Gravitationswellendetektoren nach Signalen durchsucht. In Potsdam-Golm werden sowohl numerische Simulationen durchgeführt als auch Gravitationswellendaten analysiert.

Allzweck-Hochleistungs-Rechencluster

Seit 2003 besitzt das AEI High Performance Computing (HPC) Cluster. Der erste Cluster, Peyote, wurde 2003 installiert und war damals auf Platz 395 der Top 500 Liste. In 2005 wurde der HPC Cluster Belladonna installiert, welcher 2007 von Damiana (Rang 192 der Top 500 Liste von 2007) ersetzt wurde. 2011 wurde Datura mit seinen 200 Nodes installiert.

Hochleistungsrechner <em>Minerva</em> am AEI in Potsdam-Golm. Bild vergrößern
Hochleistungsrechner Minerva am AEI in Potsdam-Golm.

Der neuste HPC Cluster ist Minerva. Minerva wurde 2016 installiert. Der Cluster besitzt 594 Nodes (Dual-socket, 8 Kern Intel Haswell E5-2630v3 (2.40GHz)) mit 9504 Kernen, welche jeweils mit 4GB RAM ausgestattet sind. Es existieren 2 BeeGFS Festplattenspeicher mit insgesamt 500TB. Im Moment (Juni 2016) ist Minerva auf Platz 463 der Top 500 Liste mit 365.0 TFlop/s Rpeak. Minerva wird hauptsächlich für die Simulation von Schwarzen Löchern und Neutronensternen genutzt.

 

 

 

Datenanalyse-Rechencluster

Der Computercluster Atlas ist der weltweit leistungsfähigste zur Gravitationswellen-Datenanalyse genutzte Großrechner.

Hochleistungsrechner <em>Atlas</em> am AEI in Hannover. Bild vergrößern
Hochleistungsrechner Atlas am AEI in Hannover.

Atlas wurde im Mai 2008 eingeweiht und bestand zu diesem Zeitpunkt aus 1344 Quadcore-Rechenknoten. Einen Monat später zog er auf Platz 58 in der Top-500-Liste der schnellsten Rechner der Welt ein; damit war er außerdem der sechstschnellste Computer in Deutschland.

Er war zudem der schnellste Computer der Welt, der Ethernet als Netzwerktechnologie einsetzte. Dies ist bemerkenswert, weil Ethernet eine relativ preiswerte Netzwerktechnologie ist. Die schnelleren Computer der Top-500-Liste nutzen allesamt deutlich teurere Verbindungen wie Infinband oder andere proprietäre Technologien. In anderen Worten: gemessen am Preis-Leistungsverhältnis war Atlas weltweit führend. In Anerkennung dafür erhielt Atlas einen „InfoWorld 100 Award“ als eine der 100 besten IT-Lösungen im Jahr 2008.

Atlas umfasst in der gegenwärtigen Ausbaustufe mehr als 3300 Rechnerknoten mit jeweils mindestens vier CPU-Kernen und 850 GPUs. Insgesamt besitzt der Cluster mehr als 5 Petabyte Festplattenkapazität und 4,5 Petabyte Bandspeicherplatz zur Archivierung. Atlas erreicht eine extrapolierte effektive Rechenleistung von etwa 400 Teraflops pro Sekunde (Billionen Berechnungen pro Sekunde). Um alle Rechner zu verbinden, wurden insgesamt etwa 15 km handelsübliche Ethernet-Kabel verwendet. Die Gesamtkapazität des Netzwerkes liegt bei etwa 30 Terabit pro Sekunde.

Zusätzlich steht den Wissenschaftlern und Wissenschaftlerinnen am AEI Potsdam-Golm und ihren Kooperationspartnern weltweit ein weiterer Computerpool zu Verfügung: Vulcan mit rund 2000 Prozessorkernen (in 4-Kern Intel Haswell CPUs) hat Merlin (2002-2008) und Morgane (2007-2014) abgelöst.

Computercluster Vulcan am AEI in Potsdam-Golm. Bild vergrößern
Computercluster Vulcan am AEI in Potsdam-Golm.

Vulcan ist ein Computercluster für die Analyse von Gravitationswellendaten. In der LIGO-VIRGO-Kollaboration wird dieser Cluster benutzt um neue Methoden zu entwickeln und zu testen, für großangelegte Monte-Carlo Simulationen, die Entwicklung von Wellenformen and die Untersuchung systematischer Abweichungen. Als Teil des LISA-Konsortiums nehmen wir derzeit an einer Missionsdesign-Studie teil. Wir variieren die Konfiguration der Mission und untersuchen die Auswirkungen auf die wissenschaftlichen Ergebnisse. Im Rahmen der European Pulsar Timing Array-Kollaboration suchen wir nach Gravitationswellensignalen von Binärsystemen supermassiver Schwarzer Löcher im nano Hertz-Bereich. 

Wie Atlas am AEI Hannover wurde auch Vulcan für High Throughput Computing (HTC) designed, und eignet sich am besten dafür, viele von einander unabhängige Operationen parallel auszuführen. Vulcan wurde aus preiswerten Teilen gebaut und nutzt ein Gigabit-Ethernet-Network. Die laufenden Rechenprozesse können insgesamt bis zu 8 TB Speicher nutzen und sie verwenden 50 TB Plattenspeicher. Für die Zuordnung von Ressourcen zu den Arbeitsaufträgen wird HTCondor als batch scheduler genutzt.

Im Rahmen der LIGO Scientific Collaboration (LSC) dient Vulcan auch als Testumgebung für Software und OS-Upgrades.

 
loading content