• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  •  science >> Vetenskap >  >> Fysik
    Partikelfysiker samarbetar med AI för att lösa de tuffaste vetenskapsproblemen

    Kredit:CC0 Public Domain

    Experiment vid Large Hadron Collider (LHC), världens största partikelaccelerator vid det europeiska partikelfysiklabbet CERN, producera cirka en miljon gigabyte data varje sekund. Även efter reduktion och kompression, data som samlats på bara en timme liknar den datavolym som Facebook samlar in under ett helt år – för mycket att lagra och analysera.

    Lyckligtvis, partikelfysiker behöver inte ta itu med alla dessa data på egen hand. De samarbetar med en form av artificiell intelligens som kallas maskininlärning som lär sig hur man gör komplexa analyser på egen hand.

    En grupp forskare, inklusive forskare vid Department of Energys SLAC National Accelerator Laboratory och Fermi National Accelerator Laboratory, sammanfatta nuvarande tillämpningar och framtidsutsikter för maskininlärning i partikelfysik i en artikel som publicerades idag i Natur .

    "Jämfört med en traditionell datoralgoritm som vi designar för att göra en specifik analys, vi designar en maskininlärningsalgoritm för att själv ta reda på hur man gör olika analyser, potentiellt spara oss otaliga timmar av design- och analysarbete, " säger medförfattaren Alexander Radovic från College of William &Mary, som arbetar med NOvA neutrinoexperimentet.

    Sålla igenom big data

    För att hantera de gigantiska datavolymer som produceras i moderna experiment som de vid LHC, forskare använder vad de kallar "triggers" – dedikerad hårdvara och mjukvara som i realtid bestämmer vilken data som ska behållas för analys och vilken data som ska kastas ut.

    I LHCb, ett experiment som kan belysa varför det finns så mycket mer materia än antimateria i universum, maskininlärningsalgoritmer gör minst 70 procent av dessa beslut, säger LHCb-forskaren Mike Williams från Massachusetts Institute of Technology, en av författarna till natursammanfattningen. "Maskininlärning spelar en roll i nästan alla dataaspekter av experimentet, från triggers till analys av återstående data, " han säger.

    Maskininlärning har visat sig vara extremt framgångsrik inom analysområdet. De gigantiska ATLAS- och CMS-detektorerna vid LHC, som möjliggjorde upptäckten av Higgs boson, var och en har miljontals avkänningselement vars signaler måste sättas samman för att få meningsfulla resultat.

    "Dessa signaler utgör ett komplext datautrymme, " säger Michael Kagan från SLAC, som arbetar på ATLAS och även var författare på Naturrevyn. "Vi måste förstå förhållandet mellan dem för att komma med slutsatser, till exempel att ett visst partikelspår i detektorn producerades av en elektron, en foton eller något annat."

    Neutrino-experiment drar också nytta av maskininlärning. NOvA, som förvaltas av Fermilab, studerar hur neutriner förändras från en typ till en annan när de färdas genom jorden. Dessa neutrinoscillationer kan potentiellt avslöja existensen av en ny neutrinotyp som vissa teorier förutspår vara en partikel av mörk materia. NOvAs detektorer håller utkik efter laddade partiklar som produceras när neutriner träffar detektormaterialet, och maskininlärningsalgoritmer identifierar dem.

    Från maskininlärning till djupinlärning

    Den senaste utvecklingen inom maskininlärning, ofta kallad "djup inlärning, " lovar att ta tillämpningar inom partikelfysik ännu längre. Deep learning hänvisar vanligtvis till användningen av neurala nätverk:datoralgoritmer med en arkitektur inspirerad av det täta nätverket av neuroner i den mänskliga hjärnan.

    Dessa neurala nät lär sig på egen hand hur man utför vissa analysuppgifter under en träningsperiod där de visas provdata, som simuleringar, och berättade hur bra de presterade.

    Tills nyligen, framgången med neurala nät var begränsad eftersom träningen av dem brukade vara mycket svår, säger medförfattaren Kazuhiro Terao, en SLAC-forskare som arbetar med neutrinoexperimentet MicroBooNE, som studerar neutrinoscillationer som en del av Fermilabs neutrinoprogram med kort baslinje och kommer att bli en del av det framtida Deep Underground Neutrino Experiment (DUNE) vid Long-Baseline Neutrino Facility (LBNF). "Dessa svårigheter begränsade oss till neurala nätverk som bara var ett par lager djupa, " säger han. "Tack vare framstegen inom algoritmer och datorhårdvara, vi vet nu mycket bättre hur man bygger och tränar mer kapabla nätverk hundratals eller tusentals lager djupa."

    Många av framstegen inom djupinlärning drivs av teknikjättars kommersiella tillämpningar och den dataexplosion de har genererat under de senaste två decennierna. "NOvA, till exempel, använder ett neuralt nätverk inspirerat av arkitekturen i GoogleNet, " säger Radovic. "Det förbättrade experimentet på sätt som annars bara hade kunnat uppnås genom att samla in 30 procent mer data."

    En grogrund för innovation

    Maskininlärningsalgoritmer blir mer sofistikerade och finjusterade dag för dag, öppnar upp för oöverträffade möjligheter att lösa partikelfysiska problem.

    Många av de nya uppgifterna de skulle kunna användas för är relaterade till datorseende, säger Kagan. "Det liknar ansiktsigenkänning, förutom att i partikelfysik, bildegenskaper är mer abstrakta än öron och näsor."

    Vissa experiment som NOvA och MicroBooNE producerar data som lätt kan översättas till faktiska bilder, och AI kan lätt användas för att identifiera funktioner i dem. I LHC-experiment, å andra sidan, bilder måste först rekonstrueras från en grumlig pool av data som genereras av miljontals sensorelement.

    "Men även om data inte ser ut som bilder, vi kan fortfarande använda datorseende metoder om vi kan bearbeta data på rätt sätt, säger Radovic.

    Ett område där detta tillvägagångssätt kan vara mycket användbart är analysen av partikelstrålar producerade i stort antal vid LHC. Strålar är smala sprayer av partiklar vars individuella spår är extremt utmanande att separera. Datorseendeteknik kan hjälpa till att identifiera funktioner i jetplan.

    En annan framväxande tillämpning av djupinlärning är simulering av partikelfysikdata som förutsäger, till exempel, vad som händer vid partikelkollisioner vid LHC och kan jämföras med faktiska data. Simuleringar som dessa är vanligtvis långsamma och kräver enorm datorkraft. AI, å andra sidan, kunde göra simuleringar mycket snabbare, potentiellt komplettera det traditionella tillvägagångssättet.

    "För bara några år sedan ingen skulle ha trott att djupa neurala nätverk kan tränas för att "hallucinera" data från slumpmässigt brus, " säger Kagan. "Även om det här är mycket tidigt arbete, det visar mycket lovande och kan hjälpa till med framtidens datautmaningar."

    Dra nytta av sund skepsis

    Trots alla uppenbara framsteg, maskininlärningsentusiaster möter ofta skepsis från sina samarbetspartners, delvis för att maskininlärningsalgoritmer mest fungerar som "svarta lådor" som ger väldigt lite information om hur de kom fram till en viss slutsats.

    "Skepticism är mycket hälsosamt, " säger Williams. "Om du använder maskininlärning för triggers som kasserar data, som vi gör i LHCb, då vill du vara extremt försiktig och sätta ribban väldigt högt."

    Därför, Att etablera maskininlärning i partikelfysik kräver ständiga ansträngningar för att bättre förstå algoritmernas inre funktion och att göra korskontroller med riktiga data när det är möjligt.

    "Vi bör alltid försöka förstå vad en datoralgoritm gör och alltid utvärdera dess resultat, " säger Terao. "Detta är sant för varje algoritm, inte bara maskininlärning. Så, att vara skeptisk borde inte stoppa framsteg."

    Snabba framsteg har fått vissa forskare att drömma om vad som kan bli möjligt inom en snar framtid. "Idag använder vi mest maskininlärning för att hitta funktioner i vår data som kan hjälpa oss att svara på några av våra frågor, " säger Terao. "Om tio år, maskininlärningsalgoritmer kanske kan ställa sina egna frågor självständigt och känna igen när de hittar ny fysik."

    © Vetenskap https://sv.scienceaq.com