Kredit:Pixabay/CC0 Public Domain
En relativt ny typ av datoranvändning som efterliknar hur den mänskliga hjärnan fungerar förändrade redan hur forskare kunde ta itu med några av de svåraste informationsbehandlingsproblemen.
Nu, forskare har hittat ett sätt att få det som kallas reservoarberäkningar att fungera mellan 33 och en miljon gånger snabbare, med betydligt färre datorresurser och mindre datainmatning som behövs.
Faktiskt, i ett test av nästa generations reservoarberäkning, forskare löste ett komplext datorproblem på mindre än en sekund på en stationär dator.
Genom att använda den nu aktuella toppmoderna tekniken, samma problem kräver en superdator att lösa och det tar fortfarande mycket längre tid, sa Daniel Gauthier, huvudförfattare till studien och professor i fysik vid Ohio State University.
"Vi kan utföra mycket komplexa informationsbearbetningsuppgifter på en bråkdel av tiden med mycket mindre datorresurser jämfört med vad reservoarberäkning kan göra för närvarande, sa Gauthier.
"Och reservoarberäkning var redan en betydande förbättring jämfört med vad som tidigare var möjligt."
Studien publicerades idag i tidskriften Naturkommunikation .
Reservoir computing är en maskininlärningsalgoritm som utvecklades i början av 2000-talet och användes för att lösa de "svåraste av de hårda" datorproblemen, som att förutsäga utvecklingen av dynamiska system som förändras över tiden, sa Gauthier.
Dynamiska system, som vädret, är svåra att förutsäga eftersom bara en liten förändring i ett tillstånd kan ha enorma effekter längre fram, han sa.
Ett känt exempel är "fjärilseffekten, " där - i en metaforisk illustration - förändringar skapade av en fjäril som flaxar med vingarna så småningom kan påverka vädret veckor senare.
Tidigare forskning har visat att reservoarberäkning är väl lämpad för att lära sig dynamiska system och kan ge korrekta prognoser om hur de kommer att bete sig i framtiden, sa Gauthier.
Det gör det genom att använda ett artificiellt neuralt nätverk, lite som en mänsklig hjärna. Forskare matar data om ett dynamiskt nätverk till en "reservoar" av slumpmässigt anslutna artificiella neuroner i ett nätverk. Nätverket producerar användbar produktion som forskarna kan tolka och mata tillbaka in i nätverket, bygga en mer och mer exakt prognos för hur systemet kommer att utvecklas i framtiden.
Ju större och mer komplext systemet är och desto mer exakt som forskarna vill att prognosen ska vara, ju större nätverket av artificiella neuroner måste vara och desto mer datorresurser och tid behövs för att slutföra uppgiften.
En fråga har varit att reservoaren av artificiella neuroner är en "svart låda, "Sade Gauthier, och forskare har inte vetat exakt vad som händer inuti det - de vet bara att det fungerar.
De artificiella neurala nätverken i hjärtat av reservoarberäkningar är byggda på matematik, Gauthier förklarade.
"Vi lät matematiker titta på dessa nätverk och fråga, "I vilken utsträckning behövs verkligen alla dessa bitar i maskineriet?", sa han.
I den här studien, Gauthier och hans kollegor undersökte den frågan och fann att hela reservoarberäkningssystemet kunde förenklas avsevärt, drastiskt minskar behovet av datorresurser och sparar betydande tid.
De testade sitt koncept på en prognosuppgift som involverade ett vädersystem utvecklat av Edward Lorenz, vars arbete ledde till vår förståelse av fjärilseffekten.
Deras nästa generations reservoarberäkning var en klar vinnare över dagens toppmoderna på denna Lorenz-prognosuppgift. I en relativt enkel simulering gjord på en stationär dator, det nya systemet var 33 till 163 gånger snabbare än den nuvarande modellen.
Men när siktet var på stor noggrannhet i prognosen, nästa generations reservoarberäkning var cirka 1 miljon gånger snabbare. Och den nya generationens datorer uppnådde samma noggrannhet med motsvarande bara 28 neuroner, jämfört med 4, 000 som behövs av den nuvarande generationens modell, sa Gauthier.
En viktig anledning till snabbheten är att "hjärnan" bakom denna nästa generation av reservoarberäkningar behöver mycket mindre uppvärmning och träning jämfört med den nuvarande generationen för att producera samma resultat.
Warmup är träningsdata som måste läggas till som indata i reservoardatorn för att förbereda den för dess faktiska uppgift.
"För vår nästa generations reservoarberäkning, det behövs nästan ingen uppvärmningstid, sa Gauthier.
"För närvarande, forskare måste lägga in 1, 000 eller 10, 000 datapunkter eller mer för att värma upp den. Och det är all data som går förlorad, som inte behövs för själva arbetet. Vi behöver bara lägga in en eller två eller tre datapunkter, " han sa.
Och när forskarna är redo att träna reservoardatorn att göra prognosen, på nytt, mycket mindre data behövs i nästa generations system.
I deras test av Lorenz prognosuppgift, forskarna kunde få samma resultat med 400 datapunkter som den nuvarande generationen producerade med 5, 000 datapunkter eller mer, beroende på önskad noggrannhet.
"Det som är spännande är att denna nästa generation av reservoarberäkningar tar det som redan var mycket bra och gör det betydligt mer effektivt, sa Gauthier.
Han och hans kollegor planerar att utöka detta arbete för att ta itu med ännu svårare datorproblem, som att prognostisera vätskedynamik.
"Det är ett otroligt utmanande problem att lösa. Vi vill se om vi kan påskynda processen att lösa det problemet med vår förenklade modell för reservoarberäkning."
Medförfattare till studien var Erik Bollt, professor i elektro- och datorteknik vid Clarkson University; Aaron Griffith, som fick sin Ph.D. i fysik vid Ohio State; och Wendson Barbosa, en postdoktor i fysik vid Ohio State.