Einweihung des weltschnellsten Ethernet-Rechen-Clusters
ATLAS, der neue Supercomputer des Albert-Einstein-Instituts, soll die seit bald 100 Jahren gesuchten Gravitationswellen aufspüren. Einstein hielt das für unmöglich, doch inzwischen stehen die Chancen dafür nicht schlecht.
"Auf jeden Fall müssen wir in den nächsten zehn Jahren fündig werden", so Professor Bruce Allen, einer der beiden Direktoren des Albert-Einstein-Instituts, das vom Institut für Gravitationsphysik der Leibniz Universität Hannover und der Max-Planck-Gesellschaft getragen wird. Der andere Institutschef, Professor Dr. Karsten Danzmann, zeigte sich bei der Einweihung des neuen Supercomputers ATLAS in Hannover sogar noch etwas optimistischer. Mit viel Glück könne man vielleicht schon im Verlauf des nächsten Jahres passende Signale aus dem Rauschen herausfiltern. Dass es die von Albert Einstein in der allgemeinen Relativitätstheorie vorhergesagten Gravitationswellen geben muss, ist weitgehend unbestritten. Ein erster indirekter Beweis gelang vor 34 Jahren den beiden Physikern der Universität Princeton, Russel Hulse und Joseph Taylor. Sie stellen eine Verringerung der Umlaufzeit bei einem Doppelpulsar um 76,5 µs pro Jahr fest - exakt der Wert, der sich als Energieverlust durch Abstrahlung von Gravitationswellen errechnet.
Die Herausforderung für den direkten Nachweis ist aber immens. Die Signale - etwa die von fernen Pulsaren - sind extrem schwach. Riesige, höchstpräzise Interferometer sind zum Nachweis nötig, mit Armlängen von 600 Metern (GEO600 in Ruthe bei Hannover) oder gar bis zu vier Kilometern (LIGO in den USA). Die Detektoren messen alle Erschütterungen, ob nun Erdbeben, Nordseewellen oder einen vorbeifahrenden Lastwagen und es ist ein gigantischer Rechenaufwand nötig, um im Zusammenspiel mit den Messergebnissen der anderen großen Interferometer LIGO und Virgo in Italien aus dem Datenstrom von ein bis zwei Megabyte/s pro Detektor mögliche Gravitationswellen herauszufiltern.
Der neueste Clou der Laserspezialisten aus Hannover ist der Einsatz von "gequetschtem Licht", mit dem sich das sogenannte Photonenrauschen deutlich vermindern und somit die Messgenauigkeit drastisch verbessern lässt. Inzwischen kann man damit die unvorstellbare Genauigkeit von 10^22 : 1 erzielen, das entspricht einem Protonendurchmesser aus 17 000 Kilometern Entfernung.
Unvorstellbare Präzision
Eine Zehnerpotenz, so AEI-Mitarbeiter Dr. Peter Aufmuth, bräuchte man aber vielleicht noch, dann würden die Chancen jedenfalls um Faktor 1000 steigen, zumal man dann über hundert statt wie jetzt nur zwei Pulsare belauschen könnte. Die vor einiger Zeit gefundenen, sich umkreisenden schwarzen Löcher (Quasar OJ287) wären zwar weitaus ergiebigere Quellen, aber deren Frequenzen liegen außerhalb des Messbereichs der aktuellen Detektoren. Allerdings könnten sie ein gefundenes Fressen für das geplante Weltrauminterferometer Lisa sein. Doch das dürfte wohl frühestens 2018 in den Orbit starten - bis dahin will man aber schon auf der Erde fündig werden.
Hierbei soll jetzt ATLAS tatkräftig mithelfen, zusammen mit neun weiteren, kleineren Clustern der LIGO Scientific Collaboration. Hinzu kommen noch 320 000 PCs im Rahmen des verteilten Internet-Projektes einstein@home. Aktuell sind derzeit 90 000 PCs mit einer theoretischen Rechenleistung von etwa 150 TeraFlop/s aktiv. Die PCs besitzen in der Regel aber nicht die lokale Speicherkapazität, um größere Datenmengen effizient zu bearbeiten. Die Supercomputer sind in dieser Beziehung besser bestückt.
Maßgeschneiderter GbE-Cluster
Mit 32,8 TFlop/s ist ATLAS einer der schnellsten Supercomputer hierzulande. Auf der (noch) aktuellen TOP500-Liste vom November 2007 läge er in Deutschland auf Platz 4, weltweit auf Platz 34. Doch während sich anderswo viele Instituten einen Großrechner für vielfältige Aufgaben teilen müssen, kann sich ATLAS ganz ungestört um einen einzigen Lebenszweck kümmern: das Aufspüren bestimmter Signale. Hierfür konnte Bruce Allen, der bei niemand anderem als bei Stephen Hawking promoviert (PhD) hat, den von Pyramid Computers gelieferten Rechner maßschneidern und somit die Anschaffungskosten optimieren. Gäbe es die Disziplin TFlop/Euro, läge ATLAS wohl noch weiter vorne.
Statt teurem Infiniband DDR wie etwa beim Sun-Consolidation-System oder bei anderen edlen Interconnects reicht für die Wellensuch-Applikation weitaus preiswerteres Gigabit-Ethernet aus, jedenfall in der Version, wie sie Woven mit nur 1,6 µs Latenzzeit anbietet. AM zentralen EFX1000-Switch mit 144 non-blocking 10-Gbe-Ports können bis zu 36 GigaBit-Switches (TRX100) mit jeweils 42 Anschlüssen hängen.
Mit diesem Interconnect schaffen es eigens von Intel aus Russland eingeflogene Spezialisten, die Effizienz des High-Performance-Linpack-Benchmarks auf über 63 Prozent zu hieven. Nur IBM konnte bei ihren xSeries 3550 und BladeCentern HS21 noch einen Hauch mehr Effizienz aus GbE-Clustern herauskitzeln - allerdings bei weit kleineren Systemen. ATLAS ist indes gemäß der Novemberliste der größte und schnellste Rechner auf Basis von GigaBit-Ethernet-Connects überhaupt. Der bisherige Spitzenreiter dieser Clustergattung, ein IBM BladeCenter HS21 mit 4096 Xeon-DC-Kernen, kommt auf 18 TFlop/s bei einer Effizienz von mäßigen 49 Prozent.
Bei der Prozessorwahl entschieden sich die Physiker angesichts ihrer gut skalierenden Applikation (unter Debian-Linux) für vergleichsweise langsame, dafür aber preiswerte Zwei-Wege-Rechenknoten (Pyramid 811X, 1 HE, Supermicro-Board), bestückt mit dem Quad-Core-Xeon X3220 mit 2,4GHz. So reichte der Etat von 1,76 Millionen Euro Anschaffungskosten - zuzüglich weitere 1,7 Millionen für Gebäude, Gehäuse, Kühlung, USV et cetera - immerhin für 671 Rechenknoten mit 1342 Prozessoren oder 5368 Cores. Die gebieten über 5,4 Terabyte Hauptspeicher und 334 Terabyte lokalen Plattenspeicher. Hinzu kommt ein Storage-System für 600 Terabyte, zusammengesetzt aus 31 QC-Xeon- und 13 Sun-Fire-X4500-Servern. Alle Rechner sind in geschlossenen, wassergekühlten Racks von Rittal untergebracht.
Mit seinen insgesamt etwa 1 Petabyte brutto verfügt ATLAS immerhin über ein Viertel der Speicherkapazität des CERN-Supercomputers. CERN will mit gigantischem Aufwand im Large Hadron Collider die Existenz des Higgschen Teilchen nachweisen, Ende Juni soll's mit dem Beschuss losgehen. Aber nach diesem Higgs Boson sucht man gerade mal 44 Jahre - da haben die Gravitationswellenforscher mit nunmehr 92 Jahren die älteren Rechte...
---
Sowas tolles haben wir in Hannover? *_*
Keine Kommentare:
Kommentar veröffentlichen