Kredit:CC0 Public Domain
För första gången, data från LHCb, ett stort fysikexperiment, kommer att behandlas på en gård av GPU:er. Denna lösning är inte bara mycket billigare, men det kommer att hjälpa till att minska klusterstorleken och bearbeta data med hastigheter upp till 40 Tbit/s. Forskningsrapporten har publicerats i Datorer och programvara för Big Science .
En tvärvetenskaplig arbetsgrupp bestående av forskare från ett av de största internationella samarbetena inom högenergifysik LHC skönhet vid CERN har föreslagit ett nytt sätt att bearbeta enorma dataflöden från partikeldetektorn. Teamet består av forskare från ledande europeiska och amerikanska universitet. Den ryska delen av teamet representerades av HSE och Yandex School of data analysis. Huvudmålet med förslaget är att ge samarbetet en robust, effektiv och flexibel lösning som skulle kunna hantera ökat dataflöde som förväntas under den kommande dataupptagningsperioden. Denna lösning är inte bara mycket billigare, men det kommer att hjälpa till att minska klusterstorleken och bearbeta data med hastigheter upp till 40 Tbit/s.
LHC och LHCb i synnerhet skapades i syfte att söka efter "ny fysik, " något utöver standardmodellen. Även om forskningen har nått måttlig framgång, hopp om att hitta helt nya partiklar, som WIMPs, har misslyckats. Många fysiker tror att för att uppnå nya resultat, Statistiken om partikelkollision vid LHC bör ökas avsevärt. Men detta kräver inte bara ny accelererande utrustning – uppgraderingar pågår för närvarande och ska vara klara 2021-2022 – utan också helt nya system för att behandla data om partikelkollisioner. För att upptäcka händelserna på LHCb som korrekt registrerade, det rekonstruerade spåret måste matcha det som modellerats av algoritmen. Om det inte finns någon matchning, uppgifterna exkluderas. Cirka 70 % av alla kollisioner i LHC är uteslutna på detta sätt, vilket innebär att det krävs seriös beräkningskapacitet för denna preliminära analys.
En grupp forskare, inklusive Andrey Ustyuzhanin, Mikhail Belous och Sergei Popov från HSE University, presenterade ett nytt papper med en algoritm för en farm av GPU:er som en första högnivåutlösare (HLT1) för händelseregistrering och detektering på LHCb-detektorn. Konceptet har fått namnet Allen, efter Frances Allen, en forskare i beräkningssystemteori och den första kvinnan som har fått Turingpriset.
Till skillnad från tidigare triggers, det nya systemet överför data från CPU:er till GPU:er. Dessa kan inkludera både professionella lösningar (som Tesla GPU:er, den mest avancerade på marknaden) och vanliga "gamer" GPU:er från NVIDIA eller AMD. Tack vare detta, Allen-utlösaren beror inte på en specifik utrustningsleverantör, vilket gör det lättare att skapa och minskar kostnaderna. Med de bästa systemen, triggern kan bearbeta data med upp till 40 Tbit/s.
I ett standardschema, information om alla händelser går från detektorn till en nollnivåutlösare (L0), som består av programmerbara chips (FPGA). De utför urval på grundnivå. I det nya systemet, det kommer inte att finnas någon L0-utlösare. Uppgifterna går omedelbart till gården, där var och en av de 300 GPU:erna samtidigt behandlar miljontals händelser per sekund.
Efter första händelseregistrering och upptäckt, endast den utvalda datan med värdefull fysisk information går till vanliga x86-processorer av andranivåutlösare (HLT2). Detta innebär att den huvudsakliga beräkningsbelastningen relaterad till händelseklassificering sker på gården med hjälp av GPU:er undantagsvis.
Detta ramverk kommer att hjälpa till att lösa händelseanalys och urvalsuppgifter mer effektivt:GPU:er skapas initialt som ett flerkanalssystem med flera kärnor. Och medan CPU:er är inriktade på konsekutiv informationsbehandling, GPU:er används för massiva samtidiga beräkningar. Dessutom, de har en mer specifik och begränsad uppsättning uppgifter, vilket bidrar till prestanda.
Enligt Denis Derkach, chef för LHCb-teamet vid HSE University, tack vare beslutet att inte använda processorer, den nya gården är väl lämpad för framtida LHCb-datatagning. Dessutom, Allen kommer att kosta betydligt mindre än ett liknande system på processorer. Det blir också enklare än de tidigare evenemangsregistreringssystemen vid acceleratorer.
Den långsiktiga nyttan av det nya tillvägagångssättet är särskilt viktig. Utrustning för många fysikexperiment uppgraderas för närvarande över hela världen. Och praktiskt taget varje sådan uppgradering leder till ett växande flöde av bearbetad information. Tidigare, experiment använde inte system baserade på GPU:er i undantagsfall. Men fördelarna med Allen – en enklare arkitektur och lägre kostnad – är så uppenbara att detta tillvägagångssätt utan tvekan kommer att ta ledningen bortom LHCb-experimentet.