Genom att använda artificiell intelligens, ett Penn State IST-ledda team designade ett system som kunde komprimera och återställa filer, såsom bilder. Ofta blir det kvalitetsförlust när bilder återställs. Dock, när teamets algoritm återställde exempelbilder, bildkvaliteten var bättre än riktmärken, inklusive Googles eget komprimeringssystem. Kredit:Wikimedia Commons
Världen producerar cirka 2,5 kvintiljoner byte data varje dag. Att lagra och överföra allt detta enorma - och ständigt växande - antal bilder, videoklipp, Tweets, och andra former av data blir en betydande utmaning, en som hotar att underminera tillväxten av internet och omintetgöra införandet av ny teknik, som Internet of Things.
Nu, ett team av forskare rapporterar att en algoritm som använder en maskininlärningsteknik baserad på den mänskliga hjärnan kan lindra denna datatäppning genom att minska storleken på multimediafiler, som videor och bilder, och återställa dem utan att förlora mycket kvalitet eller information. Maskininlärning är en typ av artificiell intelligens, eller AI.
I en studie, forskarna utvecklade en algoritm som innehåller ett återkommande neuralt nätverk för att komprimera och återställa data, enligt C. Lee Giles, David Reese professor i informationsvetenskap och teknologi, Penn State, och en medarbetare vid Institutet för CyberScience. I detta fall, algoritmen, som de kallade den iterativa förfiningsalgoritmen, som fokuserar på avkodnings- eller återställningssteget, kunde producera återställda bilder som hade bättre kvalitet än de riktmärken som valts för studien, inklusive ett komprimeringssystem designat av Google, som forskarna ansåg vara bäst på den tiden.
Människor komprimerar data för att lagra fler bilder på sin smartphone, till exempel, eller dela videor på Internet eller över sociala medieplattformar som YouTube och Twitter.
Han sa att systemets framgång med att komprimera filer beror på användningen av en återkommande neural nätverksavkodare, snarare än ett feedforward-nätverk eller en konventionell (linjär) avkodare. Ett återkommande neuralt nätverk använder tillståndsminne, vilket gör det möjligt för den att lagra bitar av data när den gör beräkningar. Dock, ett vanligt neuralt nätverk – eller feedforward neuralt nätverk – kan inte lagra data och kan bara bearbeta information sekventiellt. Med den extra minneskapaciteten, återkommande neurala nätverk kan prestera bättre vid uppgifter, som bildigenkänning.
"Ett återkommande system har feedback, medan en flerskiktad perceptron, eller konvolutionerande nät, eller annan liknande typ av neurala nätverk, är vanligtvis feedforward, med andra ord, data går bara igenom, det lagras inte som minne, " sa Giles.
David Miller, professor i elektroteknik och datavetenskap, som arbetade med Giles, sade att "den viktigaste fördelen med upprepning i detta bildavkodningssammanhang är att det utnyttjar korrelationer över långa rumsliga områden av bilden än en konventionell bildavkodare."
En annan fördel med algoritmen, jämfört med konkurrerande system, var enkelheten i algoritmens design, sa forskarna, som nyligen rapporterade sina resultat vid Data Compression Conference (DCC).
"Vi har egentligen bara det återkommande neurala nätverket i slutet av processen, jämfört med Googles, som inkluderar återkommande neurala nätverk, men de är placerade på många olika lager, vilket ökar komplexiteten, sa Giles.
Ett av problemen med komprimering är att när en komprimerad bild eller video återställs, filen kan förlora informationsbitar, vilket kan göra bilden eller videon suddig, eller förvrängd. Forskarna testade algoritmen på flera bilder och den kunde lagra och rekonstruera bilderna med högre kvalitet än Googles algoritm och andra benchmarksystem.
Neurala nätverk ordnar sina elektroniska "neuroner" ungefär som hur hjärnan är sammansatt av nätverk av neuroner; dock, Alexander G. Ororbia, en biträdande professor vid Rochester Institute of Technology, vars forskning fokuserar på att utveckla biologiskt motiverade nervsystem, och inlärningsalgoritmer som leder till denna forskning, sade elektroniska hjärnor är mycket enklare.
"Det viktiga att komma ihåg är att dessa neurala nätverk är löst baserade på hjärnan, " sade Ororbia. "Nuronerna som utgör ett elektroniskt neuralt nätverk är många, mycket enklare. Verkliga biologiska neuroner är extremt komplexa. Vissa människor säger att det elektroniska neurala nätverket nästan är en karikatyr av hjärnans neurala nätverk."
Giles sa att idén att använda återkommande neurala nätverk för komprimering kom från att återbesöka gamla neurala nätverksforskningar om kompressionsproblemet, .
"Vi märkte att det inte fanns mycket om att använda neurala nätverk för komprimering - och vi undrade varför, " sa Giles. "Det är alltid bra att återbesöka gamla verk för att se något som kan vara tillämpligt idag."
Forskarna testade sin algoritms förmåga att komprimera och återställa en bild i jämförelse med Googles system med hjälp av tre oberoende mätvärden som utvärderar bildkvalitet:Peak Signal Noise Ratio, Strukturell likhetsbildindex och flerskalig strukturell likhetsbildindex – som utvärderar bildkvaliteten.
"Resultaten från alla oberoende riktmärken och testuppsättningar och för alla mätvärden, show that the proposed iterative refinement algorithm produced images with lower distortion and higher perceptual quality, " said Ankur Mali, a doctoral candidate student at Penn State, who worked extensively on the technical implementation of the system.
I framtiden, the researchers may also explore whether the system is easier to train than competing algorithms.
While all the compression neural networks require training—feeding data into the system to teach it how to perform—Giles thinks the team's design may be easier to train.
"I would guess it's much, much faster, in terms of training, för, " said Giles.