• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  •  science >> Vetenskap >  >> Naturen
    En molnfri framtid? Mysteriet i hjärtat av klimatprognoser

    Grunda moln bildade av finskaliga virvlar som observerats i naturen. Forskare använder avancerad datoranvändning för att lägga till molndynamik med högre upplösning i globala simuleringar. Kredit:Creative commons

    Vi hör mycket om hur klimatförändringarna kommer att förändra land, hav och is. Men hur kommer det att påverka molnen?

    "Låga moln kan torka upp och krympa som inlandsisen", säger Michael Pritchard, professor i Earth System-vetenskap vid UC Irvine. "Eller så kan de tjockna och bli mer reflekterande."

    Dessa två scenarier skulle resultera i mycket olika framtida klimat. Och det, säger Pritchard, är en del av problemet.

    "Om du frågar två olika klimatmodeller hur framtiden kommer att se ut när vi lägger till mycket mer CO2 , du får två väldigt olika svar. Och huvudorsaken till detta är hur moln ingår i klimatmodeller."

    Ingen förnekar att moln och aerosoler – bitar av sot och damm som bildar molndroppar – är en viktig del av klimatekvationen. Problemet är att dessa fenomen uppstår på en längd- och tidsskala som dagens modeller inte kan komma i närheten av att reproducera. De ingår därför i modeller genom en mängd olika uppskattningar.

    Analyser av globala klimatmodeller visar genomgående att moln utgör den största källan till osäkerhet och instabilitet.

    Omverktyg för communitykoder

    Medan den mest avancerade amerikanska globala klimatmodellen kämpar för att närma sig 4 kilometers global upplösning, uppskattar Pritchard att modeller behöver en upplösning på minst 100 meter för att fånga de finskaliga turbulenta virvlarna som bildar grunda molnsystem – 40 gånger mer upplösta i varje riktning. Det kan ta fram till 2060, enligt Moores lag, innan datorkraften är tillgänglig för att fånga denna detaljnivå.

    Pritchard arbetar för att åtgärda detta påfallande gap genom att dela upp klimatmodelleringsproblemet i två delar:en grovkornig planetmodell med lägre upplösning (100 km) och många små fläckar med 100 till 200 meters upplösning. De två simuleringarna körs oberoende av varandra och utbyter sedan data var 30:e minut för att säkerställa att varken simulering går ur spåret eller blir orealistisk.

    Hans team har rapporterat resultaten av dessa ansträngningar i Journal of Advances in Modeling Earth Systems i april 2022.

    Denna klimatsimuleringsmetod, kallad "Multiscale Modeling Framework (MMF)," har funnits sedan 2000 och har länge varit ett alternativ inom Community Earth System Model (CESM)-modellen, utvecklad vid National Center for Atmospheric Research. Idén har på sistone fått en renässans vid Institutionen för energi, där forskare från Energy Exascale Earth System Model (E3SM) har drivit den till nya beräkningsgränser som en del av Exascale Computing Project. Pritchards medförfattare Walter Hannah från Lawrence Livermores nationella laboratorium hjälper till att leda detta arbete.

    "Modellen gör en slutkörning kring det svåraste problemet - modellering av hela planeten," förklarade Pritchard. "Den har tusentals små mikromodeller som fångar saker som realistiska grunda molnformationer som bara dyker upp i mycket hög upplösning."

    "Multiscale Modeling Framework-metoden är också idealisk för DOE:s kommande GPU-baserade exascale-datorer", säger Mark Taylor, Chief Computational Scientist för DOE:s Energy Exascale Earth System Model (E3SM)-projekt och en forskare vid Sandia National Laboratories. "Varje GPU har hästkrafter för att köra hundratals mikromodeller samtidigt som den matchar genomströmningen av den grovkorniga planetmodellen med lägre upplösning."

    Pritchards forskning och nya tillvägagångssätt möjliggörs delvis av den NSF-finansierade superdatorn Frontera vid Texas Advanced Computing Center (TACC). Pritchard, den snabbaste universitetssuperdatorn i världen, kan köra sina modeller på Frontera i en tids- och längdskala som endast är tillgänglig på en handfull system i USA och testa deras potential för molnmodellering.

    "Vi utvecklade ett sätt för en superdator att på bästa sätt dela upp arbetet med att simulera molnfysiken över olika delar av världen som förtjänar olika mängder upplösning... så att den går mycket snabbare", skrev teamet.

    Simulating the atmosphere in this way provides Pritchard the resolution needed to capture the physical processes and turbulent eddies involved in cloud formation. The researchers showed that the multi-model approach did not produce unwanted side effects even where patches using different cloud-resolving grid structures met.

    "We were happy so see that the differences were small," he said. "This will provide new flexibility to all users of climate models who want to focus high resolution in different places."

    Disentangling and reconnecting the various scales of the CESM model was one challenge that Pritchard's team overcame. Another involved reprogramming the model so it could take advantage of the ever-increasing number of processors available on modern supercomputing systems.

    Pritchard and his team—UCI postdoctoral scholar Liran Peng and University of Washington research scientist Peter Blossey—tackled this by breaking the inner domains of the CESM's embedded cloud models into smaller parts that could be solved in parallel using MPI, or message passing interface—a way of exchanging messages between multiple computers running a parallel program across distributed memory—and orchestrating these calculations to use many more processors.

    "Doing so seems to already provide a four-time speed-up with great efficiency. That means, I can be four times as ambitious for my cloud-resolving models," he said. "I'm really optimistic that this dream of regionalizing and MPI decomposing is leading to a totally different landscape of what's possible."

    Machine learning clouds

    Pritchard sees another promising approach in machine learning, which his team has been exploring since 2017. "I've been very provoked by how performantly a dumb sheet of neurons can reproduce these partial differential equations," Pritchard said.

    Pritchard's research and new approach is made possible in part by the NSF-funded Frontera supercomputer at TACC. The fastest university supercomputer in the world, Pritchard can run his models on Frontera at a time and length-scale accessible only on a handful of systems in the U.S. and test their potential for cloud modeling.

    In a paper submitted last fall, Pritchard, lead author Tom Beucler, of UCI, and others describe a machine learning approach that successfully predicts atmospheric conditions even in climate regimes it was not trained on, where others have struggled to do so.

    This "climate invariant" model incorporates physical knowledge of climate processes into the machine learning algorithms. Their study—which used Stampede2 at TACC, Cheyenne at the National Center for Atmospheric Research, and Expanse at the San Diego Supercomputer Center—showed the machine learning method can maintain high accuracy across a wide range of climates and geographies.

    "If machine learning high-resolution cloud physics ever succeeded, it would transform everything about how we do climate simulations," Pritchard said. "I'm interested in seeing how reproducibly and reliably the machine learning approach can succeed in complex settings."

    Pritchard is well-positioned to do so. He is on the Executive Committee of the NSF Center for Learning the Earth with Artificial Intelligence and Physics, or LEAP—a new Science and Technology Center, funded by NSF in 2021 directed by his long-time collaborator on this topic, Professor Pierre Gentine. LEAP brings together climate and data scientists to narrow the range of uncertainty in climate modeling, providing more precise and actionable climate projections that achieve immediate societal impact.

    "All of the research I've done before is what I would call 'throughput-limited.'" Pritchard said. "My job was to produce 10- to 100-year simulations. That constrained all my grid choices. However, if the goal is to produce short simulations to train machine learning models, that's a different landscape."

    Pritchard hopes to soon use the results of his 50 meter embedded models to start building up a large training library. "It's a really nice dataset to do machine learning on."

    But will AI mature fast enough? Time is of the essence to figure out the destiny of clouds.

    "If those clouds shrink away, like ice sheets will, exposing darker surfaces, that will amplify global warming and all the hazards that come with it. But if they do the opposites of ice sheets and thicken up, which they could, that's less hazardous. Some have estimated this as a multi-trillion dollar issue for society. And this has been in question for a long time," Pritchard said.

    Simulation by simulation, federally-funded supercomputers are helping Pritchard and others approach the answer to this critical question.

    "I'm torn between genuine gratitude for the U.S. national computing infrastructure, which is so incredible at helping us develop and run climate models," Pritchard said, "and feeling that we need a Manhattan Project level of new federal funding and interagency coordination to actually solve this problem."

    © Vetenskap https://sv.scienceaq.com