Laufende CASUS Open Projects
(1) November 2019 bis August 2022, verlängert bis August 2023
Exploring a performance portable software stack for PIConGPU to target a next-generation computing system, the FRONTIER Exascale System at ORNL (Erarbeitung eines leistungsfähigen, portablen Software-Stacks für PIConGPU für ein Rechensystem der nächsten Generation, das FRONTIER Exascale-System an den ORNL)
Partner: Oak Ridge National Laboratory, Universität Delaware (USA), Georgia Tech Universität (USA), Helmholtz-Zentrum Dresden-Rossendorf HZDR
Der Höchstleistungsrechner Frontier gilt als erster Exascale-Rechner der Welt. Mitte 2022 konnte Frontier eine Gesamtleistung von 1,1 ExaFlops nachweisen. Das sind 1,1 Billiarden (in Englisch: 1.1 quintillion) Fließkommaoperationen pro Sekunde (Flops). Dieser Rekord katapultierte Frontier an die Spitze der Top500-Liste der weltweit leistungsstärksten Supercomputer. In diesem Open Project wird für diesen Rechner das Software-Paket PIConGPU angepasst, damit Simulationen aus dem Bereich der Plasmaphysik auf Frontier möglichst effizient laufen. Das Projekt wurde auf Wunsch der Universität Delaware kostenneutral bis 2023 verlängert.
Dieses Projekt hat drei Hauptziele:
- Anpassung des Codes für groß angelegte Plasmasimulationen „PIConGPU“ zur Ausführung auf dem DOE-Exascale-System Frontier
- Entwicklung der Alpaka-Bibliothek für leistungsfähige Multikern-Programmierung
- Entwicklung des openPMD I/O-Ökosystems für Exascale-Anwendungen, insbesondere für In-Memory-Workflows
(2) Mai 2020 bis Juni 2023
Memory layout optimization and efficient interconversion of data structures for heterogeneous architectures (Optimierung des Speicherlayouts und effiziente Datenstrukturkonvertierung für heterogene Architekturen)
Partner: The European Organization for Nuclear Research CERN (Schweiz), Zentrum für Informationsdienste und Hochleistungsrechnen (ZIH) of Technische Universität Dresden, Helmholtz-Zentrum Dresden-Rossendorf HZDR
Heterogene Hardware-Architekturen für komplexe parallele Anwendungen sind bezüglich ihres Datendurchsatzes beschränkt. Dies führt zu einer geringeren Leistung, als theoretisch bei optimaler Parallelität möglich wäre. Im Rahmen dieses Open Project wird eine C++-Bibliothek namens LLAMA (Low Level Abstraction of Memory Access) entwickelt, um den Durchsatz durch Optimierung des Datenzugriffs und der Datenbewegung zu verbessern. Ob der Weg vielversprechend ist, wird an einem Beispiel aus der Hochenergiephysik getestet. LLAMA wird sowohl eine brauchbare, minimale Overhead-Beschreibung des Speicherlayouts als auch eine Optimierung des Datenlayouts für verschiedene Hardware-Architekturen ermöglichen. Ziel ist es, dem Benutzer die Möglichkeit zu geben, eine für seine Bedürfnisse geeignete Datenstruktur zu beschreiben. Als erste Testumgebung wird LLAMA von ROOT verwendet, dem Big-Data-Analyse-Framework, das von praktisch allen Hochenergiephysikern weltweit genutzt wird.
(3) November 2020 bis Oktober 2023
Computational methods for cell shapes and elastic materials (Berechnungsmethoden für Zellformen und elastische Materialien)
Partner: Zentrum für Systembiologie Dresden, Max-Planck-Institut für molekulare Zellbiologie und Genetik (MPI-CBG), Technische Universität Dresden
Elastische Materialien können komplexe Formen bilden, die rechnerisch nur schwer zu erfassen sind. In der Biologie zum Beispiel führen das mechanische Verhalten der Zelloberfläche selbst sowie zusätzliche Prozesse, die auf der Zelloberfläche stattfinden, zu dynamischen Formverformungen. Es werden effektive mathematische und numerische Simulationsmethoden gebraucht, um Hypothesen über bestimmte Mechanismen zu überprüfen, die Auswirkungen auf die Form eines elastischen Materials haben. Ein übergreifendes Thema dieses Open Project ist die Weiterentwicklung etablierter Berechnungsmethoden, die für flache (ein-, zwei- und dreidimensionale) Räume verwendet werden, um sie für gekrümmte (hochdimensionale) Räume nutzbar zu machen.
(4) November 2020 bis Oktober 2023
An optimal control approach to maximizing the benefits of limited testing capacity in an emerging pandemic (Ein optimaler Lenkungsansatz zur Maximierung des Nutzens begrenzter Testkapazitäten bei einer aufkommenden Pandemie)
Partner: Universität Maryland (USA)
Durch Unzulänglichkeiten bei den Tests haben die Gesundheitsbehörden kaum Informationen darüber, wie sie ihre Bemühungen zur Bekämpfung einer aufkommenden Epidemie aufeinander abstimmen können. Vor allem die schnelle Identifizierung neuer Infektionscluster ist von entscheidender Bedeutung. Es gibt zwar Empfehlungen, die bei begrenzten Testressourcen eine nützliche qualitative Orientierungshilfe bieten. Doch fehlt insbesondere eine optimierte Allokationsstrategie für die Tests, obwohl diese die Testeffizienz erhöhen könnten. Im Rahmen dieses Projekts werden eine Reihe von mathematischen Krankheitsmodellen, sogenannte gewöhnliche Differentialgleichungsmodelle, erstellt, um den Einfluss der Gesamttestkapazität, von Informationsbeschränkungen und von anderen logistischen Einschränkungen auf optimale Allokationsstrategien zur Abflachung der Infektionskurve und zur Verringerung der Sterblichkeit zu analysieren. Ziel ist es, praxisnahe Parameterschwellen und Übertragungsszenarien zu ermitteln, die die Durchführbarkeit und Optimalität von Ressourcenzuweisungsstrategien bestimmen. Die Ergebnisse sollen einen Beitrag zu künftigen Testleitlinien leisten.
(5) January 2021 bis Dezember 2023
A machine-learning inversion framework for materials under extreme conditions (Inversionsplattform für Materie unter extremen Bedingungen mittels maschinellen Lernens)
Partner: University Kalifornien, Merced (USA)
Das Hauptziel des Projekts ist es, den Rahmen für physikalisch informierte neuronale Netze für die Inversion der Kohn-Sham-Gleichungen anzupassen. Diese sind in der Physik, in der Biologie sowie in den Materialwissenschaften weit verbreitet und binden enorme Rechenkapazitäten. Im Erfolgsfall könnte sich die Genauigkeit kostengünstiger elektronischer Strukturberechnungen verbessern lassen. Die Ergebnisse würden sich erheblich auf die Simulation von Materialien bei Bedingungen hoher Energiedichte (HED) auswirken – eine der größten Herausforderungen der Plasmaphysik und der Materialwissenschaften
(6) August 2022 bis Juli 2025
How joint variation in water quality and quantity affects riverine fish biodiversity in a changing world (Wie sich gemeinsame Schwankungen der Wasserqualität und -quantität auf die Artenvielfalt von Fischen in Flüssen in einer sich verändernden Welt auswirken)
Partner: Helmholtz-Zentrum für Umweltforschung (UFZ)
Das Projekt hat sich zum Ziel gesetzt, ein genaueres System zur Vorhersage des durch den globalen Wandel bedingten Verlusts der biologischen Vielfalt in Flüssen zu entwickeln und ein Verständnis dafür zu erlangen, welche Aspekte der Wasserqualität (Temperatur, Sauerstoff, Phosphor etc.) sich am stärksten auf die Vorhersagegenauigkeit auswirken. Während es Vorhersagemodelle für Auswirkungen aufgrund sich ändernder Wassermengen in Flüssen bereits gibt, gehen diese von einer einheitlichen Wasserqualität aus. Die Erweiterung der Modelle um den Faktor Wasserqualität wird künftig eine noch bessere wissenschaftlich fundierte Ausarbeitung von Maßnahmen zum Artenschutz und zur Biodiversitätserhaltung und -wiederherstellung ermöglichen.
(7) Dezember 2022 bis November 2025
HyperUAV-1: Scaling and spatial extrapolation of ultra-high resolution hyperspectral data (HyperUAV-1: Skalierung und räumliche Extrapolation von Hyperspektraldaten ultrahoher Auflösung)
Partner: Helmholtz-Institut Freiberg für Ressourcentechnologie (HIF) am HZDR, Helmholtz-Zentrum für Umweltforschung (UFZ)
Viele Forschungsbereiche profitieren stark von Kartierungsanwendungen. Sie helfen bei der Bewertung der Vegetationsvielfalt, der Belastung von Ökosystemen, der Gesundheit von Nutzpflanzen, des geothermischen Wärmeflusses, der Bodenchemie oder der Geologie des Untergrunds. Neben bodengestützten Messdaten und flugzeug- oder satellitengestützten Daten haben sich Daten unbemannter Luftfahrzeuge (UAV) als nützliche Technologie zur Überwindung einer kritischen Maßstabslücke erwiesen. Es gibt allerdings zum einen keine Methoden zur Integration hochauflösender UAV-Messungen mit anderen Datensätzen und zum anderen keine Methoden zur Extrapolation dieser Informationen auf Regionen, für die nur Flugzeug- oder Satellitendaten zur Verfügung stehen. Dieses Projekt zielt darauf ab, solche Methoden für Hyperspektraldaten zu entwickeln. Unter anderem machen die Unterschiede zwischen den Sensortypen und den Erfassungsplattformen quantitative Vergleiche schwierig. Dieses Projekt untersucht bestimmte Effekte im Bereich der spektralen Durchmischung mit dem Ziel, den Einfluss der Größenordnung auf spektrale Messungen und damit verbundene Klassifizierungen zu quantifizieren. Schließlich wird die Auflösung von niedrig aufgelösten Satelliten- oder Flugzeugdaten durch den Einsatz generativer Deep-Learning-Methoden verbessert, die im Rahmen dieses offenen Projekts entwickelt werden.
(8) Dezember 2022 bis November 2025
HyperUAV-2: Scaling hyperspectral data to meaningfully quantify essential ecosystem variables (HyperUAV-2: Skalierung von Hyperspektraldaten zur aussagekräftigen Quantifizierung wesentlicher Ökosystemvariablen)
Partner: Helmholtz-Zentrum für Umweltforschung (UFZ), Helmholtz-Institut Freiberg für Ressourcentechnologie (HIF) am HZDR
Erfolgreiches Ökosystemmanagement bedeutet, die richtigen Entscheidungen zu treffen – und zwar so früh wie möglich. Dabei könnten Manager von Daten profitieren, die eine direkte Quantifizierung von Störungen durch Krankheiten, Trockenstress, Überschwemmungen, Brände oder invasive Arten erlauben. In diesem Projekt geht es um die frühzeitige Erkennung solcher Ereignisse sowie die korrekte Beurteilung ihrer Auswirkungen auf die Funktion von Ökosystemen auf räumlicher und zeitlicher Ebene. Hyperspektraldaten, die von unbemannten Flugobjekten (UAV) gewonnen werden, gelten als Schlüssel für eine erfolgreiche Extrapolation von kontinuierlichen Boden- oder Turmmessungen auf ganze Ökosysteme. Im Rahmen dieses Projekts werden die im Projekt „HyperUAV-1“ (siehe oben) entwickelten und skizzierten Ansätze des maschinellen Lernens genutzt, um datengetriebene Modelle für wesentliche Ökosystemvariablen zu entwickeln und zu validieren. Diese Modelle sollen (1) die kontinuierlichen Boden- oder Turmmessungen, (2) die hochauflösenden, aber räumlich begrenzten UAV-Erhebungen und (3) die niedriger aufgelösten, aber großflächigen Flugzeug- oder Satellitendaten integrieren.
(9) Januar 2023 bis Dezember 2025
AutoTarget – Autonomous multi-UAV (unmanned aerial vehicle) for the characterization of remote and isolated targets (AutoTarget – Autonomes und vielseitiges unbemanntes Luftfahrzeug für die Charakterisierung von abgelegenen und isolierten Zielen)
Partner: Helmholtz-Institut Freiberg für Ressourcentechnologie (HIF) am HZDR, Karlsruher Institut für Technologie (KIT)
Drohnen kommen bei der Datenakquise in der Wissenschaft mittlerweile in vielen Disziplinen zum Einsatz. Oft muss dabei zwischen Einsatzdauer, Datenqualität, überflogener Fläche und anderen Rahmenbedingungen abgewogen werden. Das Open Project AutoTarget hat sich zum Ziel gesetzt, die Vorteile kleiner Systeme (lange Flugdauer, große überflogene Fläche) mit denen großer Systeme (mehr und bessere Daten) zu kombinieren. Die Lösung könnte ein System aus Drohnen unterschiedlicher Bauart sein, die gemeinsam unterwegs sind. Leichtgewichtige Übersichtsdrohnen und schwerere Drohnen, voll beladen mit Sensoren, müssen dabei perfekt kommunizieren, um die Flugwege abzustimmen und festzulegen, wo genau welche Daten erhoben werden sollen. Im Rahmen des Open Project soll in Abstimmung mit den Hardware-Spezifikationen für den Einsatzfall Bodenerkundung in entlegenen Gebieten die entsprechende Software entwickelt und die unbemannten Flugsysteme angepasst werden.
(10) Januar 2023 bis Dezember 2025
AI-based decision support for treatment intervention and treatment clearance within an online adaptive proton therapy workflow (KI-gestützte Entscheidungshilfe für Behandlungseingriffe und -freigaben innerhalb eines adaptiven Online-Arbeitsablaufs für die Protonentherapie)
Partner: OncoRay – National Center for Radiation Research in Oncology, Dresden
Im Feld der Krebsradiotherapie gab es jüngst Fortschritte bezüglich der Online-Anpassung der Behandlung zu vermelden. Der Erfolg betraf die photonenbasierte Strahlentherapie. Gelänge ein vergleichbarer Erfolg in der Protonentherapie, würde das die Therapie vieler betroffener Patientinnen und Patienten deutlich verbessern. Das Projektziel besteht darin, die Entwicklung eines vollautomatischen, künstliche Intelligenz (KI)-basierten klinischen Entscheidungsunterstützungssystems voranzubringen. Das System soll in der Lage sein, sich mit dem Behandlungsplanungssystem, dem Behandlungskontrollsystem und dem Onkologie-Informationssystem zu verbinden. Die klinische Implementierung einer solchen online-angepassten Protonentherapie bedarf effizienter und sicherer Lösungen für die verschiedenen Aufgaben in der Rückkopplungsschleife. So sollte es sowohl eine direkte und schnelle Rückmeldung an das klinische Personal geben als auch eine Möglichkeit zur effizienten und komfortablen retrospektiven Überprüfung der automatisierten Entscheidungen.
(11) März 2023 bis Februar 2026
Using Natural Language Processing to learn the language rules of genomes (Verwendung natürlicher Sprachverarbeitung zum Erlernen der Sprachregeln von Genomen)
Partner: Technische Universität Dresden
Methoden des maschinellen Lernens (ML) werden in der Genomik erfolgreich für zahlreiche Klassifizierungsaufgaben eingesetzt. Während sich ML bei der Verwendung von Nukleinsäuresequenzen oder statistischen Darstellungen als Eingangsdaten als effektiv erwiesen hat, versprechen Techniken der natürlichen Sprachverarbeitung (NLP) neue und andere Erkenntnisse im Bereich der Genomik. Die jüngsten Fortschritte der NLP-Techniken ermöglichen es, Sprachregeln wie die relative Position bestimmter Motive auch in Nukleinsäuresequenzen zu erfassen. Im Rahmen dieses Projekts werden aufgabenagnostische Sprachmodelle des menschlichen Genoms und eines spezifischen Viroms, des SARS-CoV-2-Genoms, entwickelt. Anschließend wird die Grammatik und Syntax beider Modelle analysiert, um herauszufinden, ob relevante (bekannte) Muster genomischer Elemente identifiziert werden. Dies wird zu fein abgestimmten Modellen führen, die schließlich zur Beantwortung offener biologischer Fragen verwendet werden können, z. B. aus den Forschungsbereichen der Stabilität des menschlichen Genoms oder der Vorhersage von Mutationsereignissen in Viren.