und Naturwissenschaften
Neues VerbundprojektRechenkonzepte für die physikalische Forschung von morgen
20. Dezember 2018, von MIN-Dekanat
Foto: Van Thanh Dong/Belle II Collaboration
Großexperimente in der Grundlagenforschung erfordern immer mehr Rechen- und Speicherressourcen. Um auch künftig den wissenschaftlichen Erkenntnisgewinn zu sichern, haben sich jetzt Physikerinnen und Physiker mehrerer Forschungseinrichtungen in einem vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Verbundprojekt zusammengeschlossen, um innovative computergestützte Verarbeitungsmethoden zu entwickeln.
Was sind die fundamentalen Bausteine der Natur? Wie ist das Universum entstanden und wie hat es sich entwickelt? Diesen grundlegenden Fragen gehen Wissenschaftlerinnen und Wissenschaftler mit sehr unterschiedlichen Methoden nach. Am Large Hadron Collider (LHC) am CERN und beim Belle II-Experiment in Japan suchen sie nach neuen elementaren Teilchen in Proton-Proton- bzw. Elektron-Positron-Kollisionen. Am FAIR-Beschleuniger (Facility for Antiproton and Ion Research) wollen die Forscherinnen und Forscher in wenigen Jahren komprimierte Neutronenstern-Materie im Labor herstellen, die Quelle der schweren Elemente im Kosmos. Am Pierre-Auger-Observatorium in Argentinien erlangen die Expertinnen und Experten durch den Nachweis hochenergetischer kosmischer Strahlung Erkenntnisse über astrophysikalische und kosmologische Prozesse.
Zehn Millionen DVDs an Daten jährlich allein am CERN
Trotz unterschiedlicher Methoden und wissenschaftlicher Fragestellungen verbindet die Forschungsteams eine Herausforderung. Die zunehmend höhere Auflösung der Messinstrumente und die Leistungssteigerung der Beschleuniger versprechen zwar neue wissenschaftliche Erkenntnisse, allerdings steigen damit auch die Datenmengen rasant an. Schon jetzt fallen beispielsweise bei den Experimenten am CERN etwa 50 Petabyte Daten jährlich an. Das sind rund 50 Millionen Gigabytes – eine kaum vorstellbare Datenmenge. Gespeichert würden sie auf insgesamt zehn Millionen DVDs Platz finden, gestapelt ergäben die DVDs eine Höhe von 13 Kilometern. Dem aber nicht genug. In den kommenden zehn Jahren erwarten die Expertinnen und Experten aufgrund der Weiterentwicklungen von Detektoren und Beschleunigern eine Zunahme der Datenmengen um den Faktor 50.
Neue Entwicklungen in der Speicher- und Prozessortechnologie können dieses Wachstum an Speicherbedarf bei weitem nicht ausgleichen. Um auch weiterhin Forschungsdaten zu analysieren, braucht es daher künftig komplett neue Rechenkonzepte. Deshalb haben sich Wissenschaftlerinnen und Wissenschaftler aus der Teilchenphysik, der Hadronen- und Kernphysik sowie der Astroteilchenphysik zu einem experiment- und fachübergreifenden Verbund zusammengeschlossen, um diese Herausforderung gemeinsam anzugehen.
Verbund bündelt Kernkompetenzen
Das Bundesministerium für Bildung und Forschung fördert im Kontext des Rahmenprogramms „Erforschung von Universum und Materie – ErUM“ diesen Verbund mit dem Namen „Innovative Digitale Technologien für die Erforschung von Universum und Materie“ als Pilotprojekt mit insgesamt 3,6 Millionen Euro über die nächsten drei Jahre. Neben Wissenschaftlerinnen und Wissenschaftlern der Universität Hamburg sind Forscherinnen und Forscher der Universitäten Aachen, Erlangen-Nürnberg, Frankfurt am Main, Freiburg, Mainz, München, Wuppertal und des Karlsruher Instituts für Technologie sowie der assoziierten Partner DESY (Deutsches Elektronen-Synchrotron), CERN, Forschungszentrum Jülich, Grid Computing Centre Karlsruhe (GridKa), GSI Helmholtzzentrum für Schwerionenforschung und der Universitäten Bonn, Göttingen und Münster an dem Projekt beteiligt. Die Verbundkoordination übernimmt Prof. Thomas Kuhr von der Ludwig-Maximilians-Universität München.
Innerhalb der nächsten drei Jahre entwickelt und testet der Verbund neue Computing-Systeme. Ein vielversprechender Ansatz ist dabei der Einsatz von Virtualisierungs-Technologien, um bisher unzugängliche Ressourcen zu erschließen. Auch an die Nutzung von neuen Prozessor-Architekturen, die zum Beispiel in Grafikkarten eingesetzt werden und eine bessere Energieeffizienz versprechen (Green IT), denken die Wissenschaftlerinnen und Wissenschaftler. Eine wichtige Säule sehen sie in der Entwicklung verbesserter Algorithmen und dem Einsatz von künstlicher Intelligenz für Big-Data-Analysen. Dabei sollen innovative Methoden des „maschinellen Lernens“ eine wichtige Rolle spielen.
Text: LMU