Helmholtz-Gemeinschaft fördert Projekt zur Datengewinnung mittels neuronaler Netzwerke

Neben experimentellen Daten wird in der physikalischen Grundlagenforschung auch mit synthetisch erzeugten Daten gearbeitet. Deren Gewinnung mit aktuell verfügbaren Simulationsmethoden ist jedoch zeitintensiv und bindet immense Rechnerkapazitäten. Ein neues Projekt des Deutschen Elektronen-Synchrotrons (DESY, Hamburg), des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) und des Zentrums für datenintensive Systemforschung CASUS (Center for Advanced Systems Understanding, Görlitz) am HZDR erprobt einen Ansatz, mit dem Daten zum Verhalten von physikalischen Systemen mittels neuronaler Netze schneller erzeugt werden können. Das Projekt „SynRap“ wurde in einem Wettbewerbsverfahren zur Förderung ausgewählt. Die 15 Gewinnerteams erhalten über Helmholtz AI, der Kooperationseinheit der Helmholtz-Gemeinschaft zum Thema Künstliche Intelligenz, in den kommenden Jahren insgesamt 6,2 Millionen Euro.

Synthetische Daten sind am Computer algorithmisch erzeugte Daten. Sie werden zum Beispiel für das Testen von Software oder die Weitergabe von anonymisierten personenbezogenen Daten genutzt. Das Trainieren von Algorithmen des maschinellen Lernens ist ein weiteres wichtiges Einsatzgebiet. Hier werden synthetische Daten insbesondere zum Trainieren jener Algorithmen benötigt, die zu den tiefen neuronalen Netzen („deep neural networks“) zählen. „Diese Algorithmen müssen mit besonders großen Datensätzen angelernt werden, damit bei der Analyse der experimentellen Daten akkurate Ergebnisse erzielt werden“, erklärt Dr. Isabell Melzer-Pellmann, Gruppenleiterin bei DESY. Aktuell werden diese Trainingsdaten mit komplexen numerischen Simulationsmethoden aus zum Beispiel der Quantenmechanik erzeugt. Dieses Vorgehen ist allerdings rechenintensiv und nimmt viel Zeit in Anspruch.

Eine schnellere Alternative wird nun im Rahmen des Projekts „SynRap – Auf maschinellem Lernen basierende Generierung synthetischer Daten für die schnelle Modellbildung in der Physik“ erforscht. Das Ziel von Melzer-Pellmann und ihren Mitstreitern Dr. Dirk Krücker vom DESY, Dr. Attila Cangi vom CASUS und Dr. Nico Hoffmann vom HZDR-Institut für Strahlenphysik ist es, den Prozess der Erzeugung großer Mengen synthetischer Daten um den Faktor 1.000 zu beschleunigen. Dafür will das Team eine Toolbox von für diesen Zweck geeigneten Algorithmen des maschinellen Lernens zusammenstellen. Diese Algorithmen werden aus einer bestimmten Untergruppe der neuronalen Netzwerke stammen. In Abgrenzung zu den tiefen neuronalen Netzwerken wird diese als stellvertretende neuronale Netzwerke beziehungsweise Ersatzmodelle neuronaler Netzwerke („surrogate neural networks“) bezeichnet.

Ob die Qualität der derart erzeugten Datensätze stimmt, soll anhand je einem Beispiel aus der Hochenergiedichtephysik und der Hochenergiephysik überprüft werden. Im Bereich der Hochenergiedichtematerie geht es um die Zusammensetzung des Inneren von Planeten und Sternen, aber auch um Fragen angewandter Forschung wie der Bearbeitung von Materialien mit starken Lasern. Die Hochenergiephysik erforscht indes grundlegende Fragen zur Natur unseres Universums: Woraus besteht Materie? Welche Gesetze bestimmen Wechselwirkungen der Bestandteile der Materie?

Ein Werkzeugkasten – viele Einsatzgebiete

„Die Besonderheit unseres Projektes ist es, dass unser Werkzeugkasten von verschiedenen neuronalen Netzwerken letztendlich in vielen Forschungsgebieten Verwendung finden soll“, erläutert Cangi. Daher wird bei der Entwicklung der Software-Tools der Bedarf anderer Naturwissenschaften berücksichtigt. „Die interdisziplinäre Natur von CASUS ermöglicht es uns, unsere Arbeit immer auch an typischen Nutzungsszenarien aus den Umweltwissenschaften oder der Systembiologie zu orientieren“, fährt Cangi fort.

Die Helmholtz-Kooperationseinheit zur Künstlichen Intelligenz (Helmholtz AI) stärkt die Anwendung und Entwicklung von angewandter künstlicher Intelligenz (engl. artificial intelligence, AI) und maschinellem Lernen. Das Expertenpanel wählte insbesondere jene Forschungsprojekte des Wettbewerbs aus, bei denen ein hoher Erkenntnisgewinn in Aussicht steht. Allerdings gelten solche Projekte auch als besonders riskant. Es muss also damit gerechnet werden, auf unlösbare Probleme zu stoßen und das erklärte Projektziel nicht zu erreichen. Im Rahmen der aktuellen Ausschreibungsrunde vergibt die Helmholtz-Gemeinschaft insgesamt 6,2 Millionen Euro. Bei der ersten Ausschreibung der Helmholtz-AI-Projekte vor einem Jahr wurden 19 Vorhaben mit insgesamt 7,2 Millionen Euro bedacht.


Das CASUS wurde 2019 in Görlitz gegründet und betreibt digitale interdisziplinäre Systemforschung in unterschiedlichen Bereichen wie Erdsystemforschung, Systembiologie und Materialforschung. Innovative Forschungsmethoden aus Mathematik, theoretischer Systemforschung, Simulation, Daten- und Computerwissenschaft werden eingesetzt mit dem Ziel, komplexe Systeme von bisher nie dagewesener Realitätstreue abzubilden und so zur Lösung drängender gesellschaftlicher Fragen beizutragen. Kooperationspartner sind das Helmholtz-Zentrum Dresden-Rossendorf (HZDR), das Helmholtz-Zentrum für Umweltforschung in Leipzig (UFZ), das Max-Planck-Institut für molekulare Zellbiologie und Genetik in Dresden (MPI-CBG), die Technische Universität Dresden (TUD) und die Universität Wrocław. Das Zentrum wird aus Mitteln des Bundeministeriums für Bildung und Forschung und des Sächsischen Staatsministeriums für Wissenschaft, Kultur und Tourismus gefördert.

Ersatzmodelle neuronaler Netze in der Hochenergiephysik Ein mit einem Teilchendetektor aufgenommenes Ereignis, aus dem 10 Teilchenströme (sogenannte Jets, dargestellt als orangefarbene Kegel), ein bestimmtes Elementarteilchen (Myon, rote Linie) und weitere Elementarteilchen (gelbe Linien) hervorgegangen sind. Diese Visualisierung wurde aus den Messdaten des Teilchendetektors erstellt. Neben experimentellen Daten wird in der Hochenergiephysik standardmäßig auch mit simulierten beziehungsweise synthetischen Daten gearbeitet. Für das korrekte Erstellen synthetischer Datensätze müssen alle physikalischen Randbedingungen bedacht werden, was diese Aufgabe sehr rechenintensiv macht. Der Einsatz von neuronalen Netzwerken könnte das Erstellen synthetischer Datensätze deutlich beschleunigen. Mit hohen Mengen von ohne größere Anstrengung erzeugbaren synthetischen Daten könnte die Wissenschaft in Zukunft mehr Hypothesen zum Standardmodell der Elementarteilchenphysik und über dieses Modell hinaus testen. Die vorliegende Illustration enthält nur einige Elemente des Detektors. Abgebildet sind die inneren Lagen (blau) sowie die Myonkammern (grau). Die Myonkammern sind im Stahljoch (rot) verankert. Das Joch führt die starken Magnetfelder, die zur präzisen Vermessung der Teilchen nötig sind.

(Ein Bild in hoher Auflösung ist auf Anfrage verfügbar.)