banner
Heim / Blog / CASC-Newsletter
Blog

CASC-Newsletter

May 09, 2024May 09, 2024

Laden Sie die PDF-Version dieses Newsletters herunter.

Kontakt: Jeff Hittinger

Am Morgen des 5. Dezember 2022 um 1 Uhr morgens gelang der National Ignition Facility (NIF) ein bedeutender Durchbruch: Der Trägheitseinschluss eines komprimierten Ziels war gerade gut genug, um eine thermonukleare Verbrennung auszulösen. Zum ersten Mal erzielte die Menschheit einen Nettogewinn aus einer kontrollierten Fusionsreaktion in einem Labor; Die Laser lieferten 2,05 MJ Energie, was zu einer Fusionsenergieleistung von 3,15 MJ führte. Diese Errungenschaft – innerhalb eines Wimpernschlags (zig Nanosekunden) – war das Ergebnis von über zwei Jahrzehnten Arbeit an NIF, sechs Jahrzehnte nachdem John Nuckolls die Möglichkeit einer lasergesteuerten Trägheitsfusion (Inertial Confinement Fusion, ICF) erdacht hatte. Wir gratulieren unseren aktuellen und ehemaligen Kollegen im gesamten Labor zu dieser großartigen Leistung.

Natürlich hat CASC selbst Grund, diesen Erfolg zu feiern. CASC und NIF sind gewissermaßen Geschwister, die beide innerhalb eines Jahres in den 1990er Jahren gegründet wurden. Daher sollte es nicht überraschen, dass anspruchsvolle ICF-Probleme während seiner gesamten Existenz ein Schwerpunkt der Forschung in CASC waren. Im Laufe der Jahre haben CASC-Forscher sowohl direkte als auch indirekte Auswirkungen auf das NIF-Programm gehabt – von ihrer intensiven Beteiligung an der Gestaltung von Zündzielen (Jose Milovich) bis hin zur Unterstützung der NIF-Operationen bei der effektiveren Handhabung der Schussplanung (Claudio Santiago). In dieser Ausgabe des CASC-Newsletters stellen wir fünf weitere Beispiele der zahlreichen Beiträge von CASC zu den Bemühungen vor, eine kontrollierte Laborfusion zu ermöglichen.

Seit mehr als zwei Jahrzehnten arbeiten CASC-Forscher mit Computerphysikern im Programm Weapons Simulations and Computing (WSC) innerhalb von Weapons and Complex Integration (WCI) zusammen, um neue Simulationsmöglichkeiten zu schaffen, um die komplexen multiphysikalischen Prozesse zu verstehen, die an ICF beteiligt sind. In dieser Ausgabe präsentieren wir einen Rückblick von Milo Dorr über einige dieser Bemühungen zur Bewältigung von Laser-Plasma-Wechselwirkungen. Wir heben auch die wichtige Rolle des CASC-Informatikwissenschaftlers Nathan Masters hervor, der die NIF-Arbeitsgruppe „Debris & Shrapnel“ leitet, die hochentwickelte WSC-Codes verwendet, um die Produktion und Flugbahnen von Fragmenten zu analysieren, die teure NIF-Optiken beschädigen könnten. Seit vielen Jahren haben mehrere Mitglieder des CASC – darunter Gary Kerbel (im Ruhestand), Britton Chang (im Ruhestand) und jetzt Milan Holec – an der Entwicklung des WSC-Codes HYDRA für die Strahlungshydrodynamik für die Hohlraumphysik1 mitgewirkt, und wir veröffentlichen einen kurzen Artikel über Milans jüngste Arbeit an einem neuartigen deterministischen Transportalgorithmus. In den Datenwissenschaften stellt diese Ausgabe die von Timo Bremer und Shusen Liu entwickelten topologischen Datenanalysemethoden vor, die neue Einblicke in die hochdimensionale Struktur von NIF-Daten lieferten. Abschließend stellen wir einen datengesteuerten Ansatz vor, der von Ghaleb Abdulla in Zusammenarbeit mit NIF-Wissenschaftlern entwickelt wurde, um das Wachstum von Einschlüssen und Schäden in NIF-Optiken zum Zwecke der datengestützten Wartungsplanung vorherzusagen.

1Bei der ICF mit indirektem Antrieb ist der Hohlraum der kleine Metallzylinder, der als Röntgenofen für die eingeschlossene Brennstoffperle dient.

Kontakt: Milo Dorr

Um sicherzustellen, dass die in den 192 Strahlen des NIF transportierte Energie bei einem Zündschuss wie im vergangenen Dezember wie vorgesehen am Ziel ankommt, ist es wichtig, die Wechselwirkungen des Strahls mit dem von der ablatierenden Zielkapsel erzeugten Plasma zu berücksichtigen. Laser-Plasma-Wechselwirkung (LPI) ist daher ein wichtiges Thema im Bereich der Trägheitsfusionskonstruktion, und die LPI-Simulation im NIF-Kontext ist eine rechnerisch anspruchsvolle Aufgabe.

Die LPI-Simulation am NIF erfordert eine Wellenlängenauflösung in mehreren Strahlen, die jeweils Tausende von Wellenlängen breit sind, auf Zeitskalen von 10-ns-Laserimpulsen. Auch wenn dies wie ein kurzer Zeitaufwand für die Simulation erscheinen mag, erfordert es doch viel Präzision. Eine solche räumliche Auflösung im Mikrometerbereich muss mit Lichtgeschwindigkeitsgeschwindigkeiten in einem 10 mm langen Hohlraum kombiniert werden, der die Zielkapsel enthält.

Der pF3D-Code ist seit vielen Jahren das primäre LPI-Modellierungswerkzeug für NIF, das von der High Energy Density-ICF Physics & Design Group in der WCI Design Physics Division entwickelt und gepflegt wird. Motiviert durch die algorithmischen Herausforderungen und die Möglichkeit, ein großes Laborprogramm zu unterstützen, begannen CASC-Forscher unter der Leitung von Milo Dorr bereits in den frühen Tagen des NIF mit dem pF3D-Team zusammenzuarbeiten, um numerische Algorithmen zur Verbesserung der Effizienz und Genauigkeit von LPI-Simulationen zu untersuchen. Dies führte zur Entwicklung eines nichtlinearen Multispezies-Hydrodynamikpakets auf der Grundlage einer hochauflösenden Godunov-Methode und eines Spitzer-Härm-Elektronentransportpakets mit Netzverfeinerung und einem benutzerdefinierten Mehrgitterlöser [1]. Diese in pF3D implementierten algorithmischen Verbesserungen wurden verwendet, um Simulationen von LPI in Gaspipe-Target-Experimenten durchzuführen, die im Rahmen der NIF Early Light (NEL)-Kampagne unter Verwendung des ersten in der neuen Anlage installierten Beam Quad durchgeführt wurden. Vergleiche der berechneten Ergebnisse mit NIF-Messungen der Wirkung verschiedener Strahlglättungsstrategien auf die Laserausbreitung (Abbildung 1) wurden in die erste Veröffentlichung des NIF in Nature Physics [2] aufgenommen.

Mit Unterstützung des Laboratory Directed Research and Development (LDRD)-Programms untersuchten CASC-Forscher auch den möglichen Einsatz der adaptiven Netzverfeinerung (AMR) für die LPI-Simulation durch die Entwicklung des experimentellen Codes ALPS (Adaptive Laser Plasma Simulator) [3]. Die motivierende Idee bestand darin, AMR zu verwenden, um eine hohe Gitterauflösung nur um Laserflecken herum bereitzustellen, wo die Laserintensität und das damit verbundene Risiko eines schädlichen LPI am höchsten sind (Abbildung 2). ALPS nutzte die neu entwickelte Structured Adaptive Mesh Refinement Application Infrastructure (SAMRAI) von CASC und die Hypre-Bibliotheken für lineare Löser.

Figur 2: Schnittdiagramm der ALPS-berechneten Lichtintensität (log10(W/cm2)), die sich aus der Ausbreitung eines Laserstrahls durch eine zufällige Phasenplatte in ein zehntes kritisches CH-Plasma ergibt. Der Rechenbereich ist 1000 λ x 1000 λ x 500 λ, wobei λ = 351 nm die Lichtwellenlänge ist. Die hellblauen Kästchen in der Mitte der Abbildung zeigen den adaptiv verfeinerten Bereich an, der in jeder Koordinatenrichtung achtmal feiner ist als das zugrunde liegende grobe Gitter.

Da ALPS die Rasterung mehrerer Strahlen mit einer höheren Auflösung als für das umgebende Plasmaflüssigkeitsmodell erforderlich ermöglichte, wurde es auch zur Simulation der Energieübertragung zwischen sich kreuzenden Strahlen eingesetzt. Eine solche Übertragung resultiert aus einer resonanten Wechselwirkung der elektromagnetischen Wellen, aus denen die Strahlen bestehen, mit akustischen Plasmaionenwellen in dem Bereich, in dem sich die Strahlen kreuzen. Die Fähigkeit, die Energieübertragung über den Strahl vorherzusagen und zu quantifizieren, ist wichtig für die Gestaltung von NIF-Experimenten, die Leistung zwischen Strahlen verschieben, um die Symmetrie der Zielimplosion zu verbessern und unerwünschte LPI-Effekte in bestimmten Strahlkegeln zu reduzieren.

CASC-Forscher arbeiteten auch mit dem pF3D-Team an der Entwicklung eines speziellen (dh unabhängig von pF3D und ALPS) dreiwelligen, paraxialen Wellencodes namens Xbeam zur Untersuchung der Energieübertragung mit gekreuzten Strahlen [4,5,6]. Xbeam nutzte den Differential-Algebraischen Gleichungslöser IDA aus dem CASC SUNDIALS-Paket, um das nichtlineare paraxiale System implizit zu integrieren.

pF3D wird regelmäßig verwendet und wird auch weiterhin verwendet, wenn Argumente für eine weitere Aufrüstung von NIF auf höhere Leistungen und Energien erarbeitet werden, bei denen Laserintensität, Plasmaskalenlängen und LPI-Bedenken zunehmen werden.

[1] J. Hittinger und M. Dorr. „Verbesserung der Fähigkeiten eines Kontinuumslaser-Plasma-Interaktionscodes.“ In Proceedings of the 2nd Annual Scientific Discovery Through Advanced Computing Conference (SciDAC 2006), J. Phys. Konf. Ser. 46, 2006.

[2] S. Glenzer et al. „Experimente und Multiskalensimulationen der Laserausbreitung durch Plasmen im Zündmaßstab.“ Naturphysik, vol. 3, 2007.

[3] M. Dorr, F. Garaizar und J. Hittinger. „Simulation der Laserplasmafilamentation mittels adaptiver Netzverfeinerung.“ J. Comput. Phys., vol. 177, Nr. 2, S. 233-263, 2002.

[4] J. Hittinger, M. Dorr, R. Berger und E. Williams. „Simulation der zeitabhängigen Energieübertragung zwischen gekreuzten Laserstrahlen in einem expandierenden Plasma.“ J. Comput. Phys., vol. 209, Nr. 2, S. 695-729, 2005.

[5] E. Williams et al. „Auswirkungen des Ioneneinfangs auf die durch gekreuzte Laserstrahlen stimulierte Brillouin-Streuung.“ Physik. Plasmen, vol. 11, S. 231–244, 2004.

[6] R. Kirkwood et al. „Beobachtung der Sättigung der Energieübertragung zwischen sich gemeinsam ausbreitenden Strahlen in einem fließenden Plasma.“ Physik. Rev. Lett., vol. 89, nein. 21, S. 215003, 2002.

Kontakt: Nathan Masters

Die 192 Laserstrahlen von NIF und ihre Optik werden durch 3 mm dicke Einweg-Debris-Shields (DDS) aus Borosilikatglas geschützt, die relativ kostengünstig sind und leicht ausgetauscht werden können. Alle Optiken vor dem DDS sind um Größenordnungen teurer, es gibt nur wenige Ersatzteile und der Austausch erfordert erhebliche Ausfallzeiten. Daher sind Vorhersagen über die Art, Flugbahn und Geschwindigkeit der Zieltrümmer und deren potenzielle Folgen erforderlich, um geeignete Risikomanagementstrategien zu bestimmen, die die Interessen von Anlage und Nutzer (einschließlich programmatischer Interessen) in Einklang bringen, da Schäden an mehr als einigen DDS oder einem der vorgelagerten Gebiete entstehen Optik würde erhebliche Kosten verursachen und zu Terminstörungen führen.

Die NIF Debris & Shrapnel Working Group (D&S) unter der Leitung des CASC-Forschers Nathan Masters bewertet alle NIF-Ziele und Diagnosen auf potenzielle Bedrohungen, die von den Experimenten ausgehen, und arbeitet mit den Experimentalteams und der Einrichtung zusammen, um Risiken zu minimieren. D&S nutzt eine Vielzahl von Werkzeugen, um „die Anlage zu schützen und die Wissenschaft zu erleichtern“, darunter ARES für Laser-Ziel-Interaktionen und Zielreaktionen, um feste und geschmolzene Splitter zu identifizieren; ALE3D und DYNA3D/ParaDyn für strukturelle Reaktionen auf verteilte Trümmerwind- oder Röntgenablationslasten und diskrete Stöße; sowie analytische und empirische Modelle.

Im aktuellen 60-Minuten-Bericht über den allerersten Zündschuss [1] bezeichnete Reporter Scott Pelley den Zielstiel aus verbrauchtem Kupfer als „ein Artefakt, wie Bells erstes Telefon oder Edisons Glühbirne … Dieses Ding wird in … landen.“ das Smithsonian.“ Abbildung 3 zeigt den Zielstiel vor und nach diesem Schuss. Diese Stiele sind für den einmaligen Gebrauch bestimmt, sollten jedoch kein Risiko für sekundäre Ablagerungen darstellen. Bei zwei vorherigen Schüssen waren die Klammern defekt und in die Zielkammer gefallen – was ein Risiko für die Optik darstellte und zu einer Neukonstruktion führte.

Mit zunehmender Antriebsenergie und Fusionsausbeute steigen auch die Belastungen für Diagnostik und Zielpositionierer. D&S-Teammitglied Bryan Ferguson (Laser Systems Engineering and Operations) simulierte das aktuelle Stieldesign und ein vom D&S-Team vorgeschlagenes Design mit steiferen Klemmen und einem verlängerten Pfeilspitzen-„Knöchel“ (siehe Abbildung 4). Diese Simulationen sagten eine verbesserte Überlebensfähigkeit voraus und das neue Design wird noch in diesem Jahr bei Zielen eingesetzt.

NIF hat kürzlich ein Pulsleistungssystem hinzugefügt, um hohe Ströme und starke Magnetfelder auf NIF-Ziele zu treiben, um astrodynamische Effekte zu untersuchen, die Röntgenstrahlenerzeugung zu verbessern oder die Leistung der Inertial Confinement Fusion (ICF)-Kapsel zu verbessern [2]. Diese Spulen erhöhen die Masse des Ziels – was auf potenzielle Bedrohungen hin untersucht werden muss, einschließlich erhöhter Trümmerlast auf dem Zielstiel und Granatsplittern auf Optik und Diagnose. Abbildung 5 zeigt Simulationsergebnisse für einen magnetisierten ICF-Hohlraum, der zur Identifizierung fester und geschmolzener Trümmer verwendet wird, nachdem der Impuls das Ziel erreicht hat. Die Flugbahn und Größe der in dieser Simulation identifizierten Trümmer stellen akzeptable Risiken für die Optik dar. Die erhöhte Belastung des Zielstiels und der Diagnose erfordert eine weitere Bewertung dieser Strukturen, insbesondere bei höheren Antriebsenergien und Erträgen.

Neben ICF ist NIF eine Benutzereinrichtung mit Grundlagenforschung und programmatischen Experimenten zur Erforschung vieler Phänomene. In letzter Zeit wurden mehrere Diamond Anvil Cell (DAC)-Experimente durchgeführt [3]. Diese komprimieren Proben von Materie mit niedrigem Z-Wert, wie etwa Helium, während des Zusammenbaus mithilfe eines DAC auf hohen Druck vor und treiben diese dann mit NIF-Strahlen auf noch höhere Drücke. Der DAC besteht aus einem Paar Diamantambossen, die von größeren Teilen aus Wolframcarbid (WC) und Stahl getragen werden – allesamt potenzielle Ablagerungsquellen als Reaktion auf den Laserantrieb. Simulationen prognostizierten, dass zwar ein nominelles Risiko für die teilnehmenden unteren Strahlen durch von der Unterseite des DAC-Targets weggeschleudertes Material bestehen würde, es jedoch zu erheblichen Schäden an der oberen WC-Stütze kommen könnte, die in millimetergroße Stücke zersplittern könnten, die auf die Optik fallen könnten (siehe Abbildung 6 (oben)). Dies wurde durch die Platzierung eines passiven Diagnosegeräts (PRAD) in unmittelbarer Nähe des DAC gemildert, um die anfängliche Beleidigung zu absorbieren, wie aus den Fragmenten oben auf dem DAC und den Fotos des Aufprallschadens auf dem PRAD vor und nach dem Schuss hervorgeht Filter in Abbildung 6 (unten).

[1] Kernfusion: Der Durchbruch, der unsere Welt verändern könnte | 60 Minuten – YouTube.

[2] J. Moody et al. „Erhöhte Ionentemperatur und Neutronenausbeute wurden bei magnetisierten, indirekt angetriebenen D2-gefüllten Kapselimplosionen in der National Ignition Facility beobachtet.“ Physik. Rev. Lett., vol. 129, Nr. 19, S. 195002, 2022.

[3] Y.-J. Kim. „Stoßkompression statisch vorkomprimierter Low-Z-Materialien.“ APS-Märztreffen 2022, Abstract-ID.N15.002.

Kontakt: Milan Holec

Hohlraumsimulationen spielen eine entscheidende Rolle im Inertial Confinement Fusion-Programm des NIF. Um diese Simulationen zu unterstützen, demonstrierte CASC-Forscher Milan Holec eine einzigartige deterministische Transportmethode, mit der die Kapselkompression modelliert werden kann.

HYDRA ist ein vom WSC entwickelter Multiphysik-Code, der zur Simulation verschiedener am NIF durchgeführter Experimente verwendet wird. Es verfügt über Pakete zur Simulation von Strahlungsübertragung, Atomphysik, Hydrodynamik, Laserausbreitung und einer Reihe anderer physikalischer Effekte. Kürzlich hat Holec eine Mischungsstrategie hoher und niedriger Ordnung entwickelt, um ein genaues, robustes und recheneffizientes Strahlungstransportmodell in hydrodynamischen Simulationen mit HYDRA bereitzustellen. Er entwickelte einen neuen Diskretisierungsansatz für den Strahlungstransport, genannt „unlocked polar SN“, der sich durch die Abschwächung des Strahlungseffekts auszeichnet und eine konservative, positivitätserhaltende Methode bietet, die die korrekte Diffusionsgrenze einhält.

Abbildung 7:(links) Standard-SN leidet selbst in einem perfekt sphärischen Transportbeispiel unter dem Strahleneffekt, und (rechts) Räumlich rotierendes Winkelsystem polarer SN (weiße Zellen) im Vergleich zu einem standardmäßigen festen Winkelsystem (graue Zellen).

Der Strahleneffekt, der häufig bei der Verwendung von Standard-SN auftritt (siehe Abbildung 7 (links)), entsteht durch die Netzprägung der Winkeldimensionen der Phasenraumdiskretisierung. Polar SN geht dieses Problem an, indem es das Winkelnetz oder die Winkelquadratur „anpasst“, indem es es in Bezug auf den Mittelpunkt einer Kugel, beispielsweise einer ICF-Kapsel, ausrichtet. Abbildung 7 (rechts) zeigt schematisch den Unterschied zwischen Standard-SN (graue Zellen) und gedrehter polarer SN (weiße Zellen). HYDRA nutzt die polare SN, wie in Abbildung 8 dargestellt, sodass eine perfekt sphärische Kompression einer ICF-Kapsel ohne hydrodynamische Instabilitäten durch numerische Strahleneffekte gestartet werden kann.

Abbildung 8:Das polare SN-Strahlungsantriebsmodell in HYDRA führt zu einer perfekt sphärischen Kapselkomprimierung, was es zu einer einzigartigen deterministischen Transportmethode macht.

Das polare SN-Konzept wird mithilfe einer Mischung aus Diamantdifferenz (DD) höherer Ordnung und Stufenmethode niedriger Ordnung implementiert, die die Positivität des Strahlungsfelds und der Temperatur gewährleistet. Ein besonders herausfordernder Moment entsteht, wenn der Strahlungsantrieb auf die kalte Oberfläche des Kapselablators trifft, wie in Abbildung 3 (links) dargestellt, und eine starke Änderung der Opazität auftritt. Reine DD höherer Ordnung verstößt eindeutig gegen das physikalische Konzept der Positivität (durchgezogene rote Linie) und führt zu numerischer Instabilität. Im Gegensatz dazu führt die Kombination von DD- und Stufenmethoden zu einer genauen Lösung, die positiv und konservativ ist und die Grenze der Strahlungstransportdiffusion einhält. Die richtige Diffusionsgrenze erfordert jedoch eine von Milan und seinen Mitarbeitern am WCI und NIF entwickelte Methode zur „Freischaltung“ [1].

Die Forscher demonstrierten die Richtigkeit der Diffusionsgrenze, indem sie eine optisch dicke, sphärisch symmetrische Marshak-Welle simulierten, die durch nichtlineare synthetische Diffusionsbeschleunigung (NDSA) beschleunigt wurde, um die Kopplung zwischen Strahlung und Plasmatemperatur effizient zu berechnen. Im Gegensatz zu den meisten Kopplungsmethoden, die auf Strahlungspseudostreuung basieren, konzentriert sich NDSA auf die Plasmatemperatur, was es zu einem einzigartigen Ansatz in der Klasse der photonenfreien Methoden (PFMs) macht. Dies ist in der ICF relevant, wo die durch die Temperatur repräsentierte innere Energiedichte des Plasmas in Hohlraumexperimenten mit indirektem Antrieb eine dominante Rolle gegenüber der Strahlungsenergiedichte in optisch dickem Plasma spielt [2].

Die Ergebnisse zum Zeitpunkt der Spitzenkompression (Bedingungen für Zündung und brennendes Plasma) einer perfekt symmetrischen Kompression und einer Kompression mit 50 Angström-Störung der Einzelmode l=30 auf der Kapseloberfläche sind in Abbildung 9 (rechts) dargestellt. Diese Simulationen zeigen eine hervorragende Genauigkeit des radialen Profils der Ablator-Brennstoff-Grenzfläche: Die Symmetrie bleibt erhalten, und der Wachstumsfaktor der kleinen Störung behält das lineare Regime bei (es treten keine höheren Moden auf). Die Gruppe erforscht derzeit die allgemeine Theorie und Erweiterung des freigeschalteten polaren SN in einem LDRD-Projekt (Laboratory Directed Research and Development).

Abbildung 9: (links) Entriegeltes polares SN bewahrt das positive Strahlungsfeld basierend auf der Diamantdifferenz hoher Ordnung (DD) und der entriegelten Stufenmethode niedriger Ordnung (USM), wobei sich die Negativität an der scharfen Opazitätsgrenzfläche zwischen dem äußeren Gas und dem Kapselablator (Magenta) manifestiert; und (rechts) radiales Profil der Kraftstoff-Ablator-Grenzfläche zum Zeitpunkt der Spitzenkompression der ICF-Kapsel. Dargestellt sind die Erhaltung der Symmetrie (orangefarbene Linie) und das lineare Wachstum der anfänglichen Kosinusstörung (blaue Linie).

[1] M. Holec, B. Southworth, T. Haut und B. Yee. „Nichtlineare Diffusionssynthetische Beschleunigung der thermischen Strahlungsübertragung.“ In Proceedings of the International Conference on Mathematics and Computational Methods Applied to Nuclear Science and Engineering, 2021.

[2] A. Kritcher et al. „Entwurf von Trägheitsfusionsimplosionen, die das brennende Plasmaregime erreichen.“ Naturphysik, vol. 18. 2022.

Kontakt: Shusen Liu und Timo Bremer

Die Topologie, insbesondere die Morsetheorie, untersucht die grundlegenden Invarianten von Funktionen in beliebigen Dimensionen. Insbesondere kann es zur Berechnung des Morsekomplexes einer Struktur verwendet werden, was konzeptionell der Segmentierung einzelner Berge in einem komplexen Gelände ähnelt (siehe Abbildung 10). Im Gegensatz zu herkömmlichen Segmentierungsansätzen wird die Topologie jedoch von Natur aus in höheren Dimensionen definiert und führt zu einer mehrskaligen Darstellung, die zur Durchführung wichtiger Aufgaben wie der Beseitigung von Rauschen oder der Vereinfachung von Funktionen verwendet werden kann. Die CASC-Forscher Shusen Liu und Timo Bremer haben ein Open-Source-Toolkit namens N-dimensional Data Analysis and Visualization (NDDAV) entwickelt, um hochdimensionale Funktionen auf der Grundlage der Morsetheorie zu berechnen und zu analysieren. Das NDDAV-Framework wurde in einer Vielzahl von Anwendungen eingesetzt, unter anderem zur Unterstützung komplexer NIF-Simulationen und Ersatzmodellierung.

Eine der früheren Anwendungen [1] von NDDAV für NIF-Simulationen besteht darin, dabei zu helfen, Bedingungen zu identifizieren, die zu hohen Erträgen führen können. Zusammen mit Mitarbeitern von WCI, NIF und der University of Utah nutzte Bremer NDDAV, um topologische Segmente („Berge“) für ein Ensemble aus Tausenden von 2D-HYDRA-Simulationen zu berechnen. Abbildung 11 zeigt ein Streudiagramm der Beziehung zwischen dem Downscatter-Verhältnis (DSR) und der endgültigen Ausbeute der Implosion, gefärbt anhand der aus NDDAV berechneten topologischen Segmente. Das Ensemble variierte fünf verschiedene Eingabeparameter und die Analyse des Ertrags als fünfdimensionale Funktion auf der Grundlage dieser Eingabeparameter ergab zwei starke und gut getrennte „Berge“. Im Wesentlichen zeigte die topologische Analyse, dass innerhalb des Ensembles zwei sehr unterschiedliche Bedingungen (rot und blau gefärbt) herrschten, die zu hohen Erträgen führen können.

Eine weitere Anwendung von NDDAV bestand darin, beim Entwerfen, Debuggen und Interpretieren eines komplexen multimodalen Ersatzmodells zu helfen, das darauf abzielte, Simulationen von NIF-Aufnahmen zu emulieren [2]. Das Modell bildet einen 5-dimensionalen Parameterraum auf eine Reihe von Skalaren und Bildern ab, die die Ausgabe der Simulation beschreiben. Das Modell selbst verwendet eine Reihe verschiedener Verlustfunktionen, die jeweils auf unterschiedliche Aspekte der Anpassung abzielen, wie z. B. den Vorwärtsfehler, die physikalische Konsistenz usw. Eine Herausforderung beim traditionellen Ansatz, ein Modell anhand seines globalen Fehlers zu beurteilen, besteht darin, dass es tendiert um Ausreißer zu verdecken und wenig Einblick in das zugrunde liegende Verhalten zu geben. In diesem Beispiel zeigten mehrere Modelle mit unterschiedlichen Stichprobengrößen (100.000, 1 Mio. und 10 Mio. Stichproben) alle einen gut konvergenten globalen Fehler. NDDAV ermöglichte jedoch die direkte Analyse und Visualisierung der verschiedenen über den 5-dimensionalen Eingaberaum definierten Verlustoberflächen und lieferte so Einblicke in das lokale Verhalten der Fehler. Insbesondere zeigte sich, dass das Modell, das an eine Stichprobengröße von nur 100.000 angepasst wurde, tatsächlich nicht konvergierte, sondern mehrere, wenn auch kleine Bereiche im Parameterraum mit ungewöhnlich hohem Fehler aufwies. In ähnlicher Weise wies selbst das erste große Modell einzelne Ausreißer in den Daten auf, die nicht in den Standardtrainingsprozess eingepasst werden konnten. Diese galten letztlich als Artefakte der Datenproduktion, die mit herkömmlichen globalen Ansätzen nicht hätten gefunden werden können.

In jüngerer Zeit war NDDAV von entscheidender Bedeutung für das Verständnis des Verhaltens von Multi-Fidelity-NIF-Simulationen. In einer ressourcenbeschränkten Umgebung ist es häufig wünschenswert, mehr Rechenressourcen für Simulationen mit höherer Wiedergabetreue bereitzustellen, wenn dadurch die Wahrscheinlichkeit größer ist, dass für das Anwendungsziel relevante Ergebnisse erzielt werden, beispielsweise eine höhere Ausbeute. Eine der größten Herausforderungen besteht darin, zu bestimmen, wo im Parameterraum die Low-Fidelity-Simulationen im Vergleich zu den High-Fidelity-Simulationen ausgeführt werden sollen. Hier kann eine topologische Datenanalyse in Kombination mit einer hochdimensionalen Datenvisualisierung in NDDAV besonders wertvoll sein. Die topologische Datenanalyse kann die aussagekräftigen Peaks und ihre Probenzusammensetzung aufdecken. Anschließend können die aus der Visualisierung erhaltenen geometrischen Informationen die Spitzen im Eingabeparameterraum lokalisieren und vergleichen. In Abbildung 12 zeigt der linke Bereich die Visualisierung der Low-Fidelity-Funktion, während der rechte Bereich die High-Fidelity-Funktion zeigt. In der aktuellen Visualisierungskonfiguration zeigt die Ansicht unten links eine Geländemetapher der hochdimensionalen Funktion. Wie aus der Geländevisualisierung hervorgeht, weisen diese beiden Funktionen recht unterschiedliche topologische Strukturen auf. Noch wichtiger ist, dass sich die globalen Spitzen beider Funktionen entlang einer der Eingabeparameterdimensionen erheblich unterscheiden, was eher unerwartet ist. In Zukunft kann dies großen Einfluss darauf haben, wie das Multi-Fidelity-Ersatzprodukt entworfen und abgestimmt wird.

[1] P.-T. Bremer et al. „ND2AV: N-dimensionale Datenanalyse und Visualisierungsanalyse für die National Ignition Campaign.“ Computing and Visualization in Science, 17(1), 1-18, 2015.

[2] S. Liu et al. „Skalierbare topologische Datenanalyse und Visualisierung zur Bewertung datengesteuerter Modelle in wissenschaftlichen Anwendungen.“ IEEE Transactions on Visualization and Computer Graphics, 26(1), 291-300, 2019.

Kontakt: Ghaleb Abdulla

Laserinduzierte Schäden an der Austrittsoberfläche von Quarzglasoptiken sind ein Thema von erheblichem Interesse für Hochleistungslasersysteme mit großer Apertur wie NIF, und maschinelles Lernen (ML) kann ein leistungsstarkes Vorhersagewerkzeug sein, um das Verständnis der Optik zu verbessern Schaden Wachstumsprozess.

CASC-Forscher Ghaleb Abdulla war an einem LDRD-Projekt (Laboratory Directed Research and Development) beteiligt, um Wachstums- oder Schadensstandorte zu verstehen und zu verfolgen, bevor sie eine bestimmte Größe erreichen. Er entwickelte prädiktive Modellierungstechniken zur Charakterisierung der Schadenswachstumsrate und des Schadensverhaltens, die zur Planung der Wartung von NIF-Optiken verwendet werden können. Insbesondere wandte er Data-Mining- und ML-Techniken an, um bessere Vorhersagemodelle für das Wachstum optischer Schäden zu erstellen.

Eine ihrer ersten Erkenntnisse in diesem Projekt [1] war, dass ein Großteil der Streuung früherer Wachstumsbeobachtungen auf Parameter zurückzuführen war, von denen bisher nicht bekannt war, dass sie die Wachstumsrate beeinflussen, nämlich die zeitliche Pulsform des Lasers und die Größe einer Stelle . Die verbleibende Variabilität, die bei der Wachstumsrate der Standorte beobachtet wird, lässt sich anhand der Weibull-Statistik gut beschreiben. Die Auswirkungen der Standortgröße und der Laserfluenz können beide orthogonal durch Weibull-Koeffizienten ausgedrückt werden. Um den Multiparameter-Wachstumsraum zu erkunden und durchschnittliche Wachstumstrends aufzuzeigen, verwendeten die Forscher einen Erwartungsmaximierungs-Clustering-Algorithmus mit drei Eingabeparametern. Dieser Analyseansatz identifizierte Standorte, deren Wachstumsraten wahrscheinlich außerhalb der Norm liegen. Die Fähigkeit, zu identifizieren, welche Standorte wahrscheinlich ungewöhnlich schnell wachsen, bevor sich ein solches Verhalten manifestiert, hat die Genauigkeit von Vorhersagemodellen im Vergleich zu Modellen, die auf durchschnittlichem Wachstumsverhalten basieren, erheblich verbessert.

Eine wichtige Beobachtung ist, dass es bei identischen Laserbedingungen zu einer weitverbreiteten Standortreaktion (Wachstumsrate) kommt, die nicht allein durch Laserparameter erklärt werden kann. Das Forschungsteam zeigte, dass der Beginn des Schadenswachstums nicht durch eine Laserfluenzschwelle bestimmt wird, sondern wahrscheinlicher Natur ist. Sie hängt von der aktuellen Morphologie und Größe einer Schadensstelle sowie der Laserfluenz ab, der sie ausgesetzt ist [2]. Sie zeigten auch, dass die Geschichte der Laserexposition das Verhalten einzelner Standorte beeinflusst. Die Schuss-zu-Schuss-Unabhängigkeit der Wachstumswahrscheinlichkeit deutete darauf hin, dass sich interne Merkmale der Schadensstellen mit jeder Laserbestrahlung weiterentwickeln, auch wenn sich solche Veränderungen nicht in beobachtbaren Änderungen des Stellendurchmessers manifestieren. Die Ergebnisse dieser Studie hatten wichtige Auswirkungen auf die Entwicklung von Vorhersagemodellen zur Entwicklung von Laserschäden, vom Beginn bis zu einer voreingestellten Größe, die durch verschiedene Schadensreparaturprotokolle vorgegeben wird. Detaillierte Kenntnisse darüber, wie Schadensstellen je nach Größe auf Lasereinwirkung reagieren, können dazu genutzt werden, die Optik nachzubearbeiten, um sie robuster zu machen.

Das Forschungsteam nutzte auch historische Daten, um zukünftige Schadensgrößen über eine Reihe von Laserschüssen vorherzusagen. Um mithilfe eines Klassifikators ein Vorhersagemodell zu erstellen, organisierten sie die Daten zeitlich nach Standort und verwendeten zwei Drittel der Daten für das Training und ein Drittel für Tests. Die Ergebnisse [3] zeigten, dass sowohl die Monte-Carlo (MC)-Simulation als auch die überwachte ML die Entwicklung einer Population von Schadensstellen je nach Größenbereich über zehn oder mehr zukünftige Laserschüsse genau reproduzieren können. Obwohl die MC-Technik hinsichtlich der Anwendung auf verschiedene Datensätze flexibler ist, ist ihr Ergebnis möglicherweise nicht so genau wie das der ML-Klassifikatortechnik. Allerdings würde die Klassifikationstechnik eine stärkere Überwachung erfordern, um sicherzustellen, dass die Trainingsdaten und die Vorhersagedaten miteinander konsistent sind.

[1] Z. Liao, G. Abdulla, R. Negres, D. Cross und C. Carr. „Vorhersagemodellierungstechniken für das Schadenswachstum von Nanosekundenlasern in Quarzglasoptiken.“ Optics Express, 20(14), 2012.

[2] R. Negres, G. Abdulla, D. Cross, Z. Liao und C. Carr. „Wahrscheinlichkeit des Wachstums kleiner Schadensstellen auf der Austrittsoberfläche von Quarzglasoptiken.“ Optics Express, 20(12), 2012.

[3] R. Negres, Z. Liao, G. Abdulla, D. Cross, M. Norton und C. Carr. „Erforschung des Multiparameterraums des Nanosekundenlaser-Schadenswachstums in Quarzglasoptiken.“ Angewandte Optik, 50(22), 2011.

Wurde dieser Newsletter-Link an Sie weitergegeben? Oder haben Sie es zufällig in den sozialen Medien gefunden?Melden Sie sich anum über zukünftige Newsletter informiert zu werden.

Herausgegeben von Ming Jiang. LLNL-MI-851177

SpitzeAbbildung 1:Figur 2:SpitzeFigur 3:Figur 4:Abbildung 5:Abbildung 6:SpitzeAbbildung 7:Abbildung 8:Abbildung 9:SpitzeAbbildung 10:Abbildung 11:Abbildung 12:SpitzeAbbildung 13:Abbildung 14:Abbildung 15:SpitzeMelden Sie sich anSpitze