Astrophysiker haben die Rechenleistung von Hazel Hen, Deutschlands schnellstem Supercomputer, genutzt, um die detaillierteste Simulation des Universums zu erstellen, die je entwickelt wurde.
Die Simulation IllustrisTNG modelliert ein würfelförmiges Universum, das etwas kleiner als unseres ist, aber viele beobachtbare Merkmale widerspiegelt, die Experten kennen oder erwarten.
Aufbauend auf der ursprünglichen Illustris-Simulation mit 350 Millionen Lichtjahren pro Seite verfolgt IllustrisTNG die Entstehung von Millionen Galaxien in einer repräsentativen Region mit fast einer Milliarde Lichtjahren pro Seite.
Siehe auch: Beyond the Big Bang: Wie wäre es gewesen, Zeuge der Geburt des Universums zu werden? Die Hälfte der fehlenden normalen Materie des Universums wurde gefunden. Einfrieren, knirschen, hüpfen oder reißen: Wie wird das Universum enden? Sehen Sie Ihre Bedeutungslosigkeit im Universum in nur vier Minuten.
Das simulierte kosmische Netz aus Gas und dunkler Materie zeigt Galaxien, die in Form und Größe realen Galaxien ähneln. Erstmals berechnen hydrodynamische Simulationen das detaillierte Clustering-Muster von Galaxien im Weltall direkt und liefern realistischere Bilder des fernen Universums als Beobachtungsdaten wie vom Sloan Digital Sky Survey.
„Wenn wir Galaxien mit einem Teleskop beobachten, können wir nur bestimmte Größen messen“, erklärt Shy Genel, Associate Research Scientist am Center for Computational Astrophysics des Flatiron Institute. „Mit der Simulation können wir alle Eigenschaften all dieser Galaxien verfolgen. Und nicht nur, wie die Galaxie jetzt aussieht, sondern ihre gesamte Entstehungsgeschichte.“
Die Kartierung der Galaxienentwicklung könnte Aufschluss geben, wie unsere Milchstraße zur Entstehungszeit der Erde aussah und sich künftig verändern wird.
Die Simulationen prognostizieren auch Veränderungen im kosmischen Netz, insbesondere bei dunkler Materie. „Besonders faszinierend ist, dass wir den Einfluss supermassiver Schwarzer Löcher auf die großräumige Verteilung von Materie genau vorhersagen können“, sagt Volker Springel, Projektleiter am Heidelberger Institut für Theoretische Studien. „Dies ist entscheidend für die zuverlässige Interpretation bevorstehender kosmologischer Messungen.“
Forscher aus fünf Institutionen – darunter die Max-Planck-Institute für Astronomie und Astrophysik, Harvard University, MIT und das Center for Computational Astrophysics des Flatiron Institute – entwickelten einen speziellen Code und setzten ihn auf Hazel Hen am Höchstleistungsrechenzentrum Stuttgart ein. Die Ergebnisse erscheinen in drei Artikeln der Monthly Notices of the Royal Astronomical Society.
In zwei Monaten nutzten die Teams über 24.000 Prozessoren und erzeugten mehr als 500 Terabyte Daten. „Die Analyse dieses riesigen Datenbergs wird uns noch Jahre beschäftigen und verspricht viele spannende neue Einblicke in astrophysikalische Prozesse“, betont Springel.
Mögliche Erkenntnisse betreffen Interaktionen von Schwarzen Löchern mit dunkler Materie, Produktion und Verteilung schwerer Elemente sowie Ursprünge von Magnetfeldern.
Dylan Nelson vom Max-Planck-Institut für Astrophysik konnte bereits zeigen, wie Schwarze Löcher Sternentstehung in elliptischen Galaxien stoppen. Junge Sterne leuchten blau, bis Ausströmungen aus supermassiven Schwarzen Löchern die Gasvorräte verheizen und Sternbildung einstellen – die Galaxie altert zu einem roten Friedhof alter Sterne.
„Die einzige physikalische Einheit, die in der Lage ist, die Sternentstehung in unseren großen elliptischen Galaxien auszulöschen, sind die supermassiven Schwarzen Löcher in ihren Zentren“, erklärt Nelson. „Die ultraschnellen Ausströmungen dieser Gravitationsfallen erreichen Geschwindigkeiten von bis zu 10 % der Lichtgeschwindigkeit und wirken sich auf riesige Sternensysteme aus, die milliardenfach größer sind als das vergleichsweise kleine Schwarze Loch selbst.“
Bild: Zusammenarbeit mit IllustrisTNG