Figur 1:TAPAS -arbetsflödet. Kredit:IBM
Den 14 december, 2018, IBM släppte NeuNetS, en fundamentalt ny förmåga som åtgärdar kompetensgapet för utveckling av de senaste AI-modellerna för ett brett utbud av affärsdomäner. NeuNetS använder AI för att automatiskt syntetisera djupa neurala nätverksmodeller snabbare och enklare än någonsin tidigare, skala upp adoptionen av AI hos företag och små och medelstora företag. Genom att helt automatisera utveckling och implementering av AI-modeller, NeuNetS låter icke-experta användare bygga neurala nätverk för specifika uppgifter och datauppsättningar på en bråkdel av den tid det tar idag – utan att offra noggrannheten.
Behovet av automatisering
AI förändrar hur företag arbetar och innoverar. Artificiella neurala nätverk är utan tvekan det mest kraftfulla verktyget som för närvarande är tillgängligt för dataforskare. Dock, medan endast en liten del av dataforskarna har de färdigheter och erfarenheter som behövs för att skapa ett högpresterande neuralt nätverk från grunden, samtidigt som efterfrågan vida överstiger utbudet. Som ett resultat, de flesta företag kämpar för att snabbt och effektivt komma till ett nytt neuralt nätverk som är arkitektoniskt specialdesignat för att möta behoven för deras specifika applikationer, även på proof-of-concept-stadiet. Således, Teknologier som överbryggar denna kompetensklyfta genom att automatiskt utforma arkitekturen för neurala nätverk för en given datamängd blir allt viktigare. NeuNetS-motorn tar AI in i denna pipeline för snabba resultat. Att använda AI för utveckling av AI-modeller ger en ny och välbehövlig grad av skalbarhet för utvecklingen av AI-tekniker.
Under huven på NeuNetS
NeuNetS körs på en helt containeriserad miljö distribuerad på IBM Cloud med Kubernetes. Arkitekturen är designad för att minimera mänsklig interaktion, automatisera användarens arbetsbelastning, och förbättra över användningen. Användare behöver inte skriva kod eller ha erfarenhet av befintliga ramverk för djupinlärning:Allt är automatiserat, från datauppsättningen och förbearbetningen, till arkitektursökningsutbildningen och modellutbyggnaden. När området för automatisering av AI rör sig i snabb takt, systemet måste kunna ta in de senaste tillvägagångssätten med minimal påverkan på den körande tjänsten. Som sådan, vi har designat NeuNetS ramverket för att vara flexibelt och modulärt, så att nya kraftfulla algoritmer kan inkluderas när som helst. NeuNetS utnyttjar befintliga IBM-tillgångar, som DLaaS, HPO, och WML. Neural Networks -modellerna är syntetiserade på den senaste generationen NVIDIA Tesla V100 GPU:er.
Figur 2:NCEvolves arbetsflöde. Kredit:IBM
Blödande forskningsteknologi
NeuNetS-algoritmer är utformade för att skapa nya neurala nätverksmodeller utan att återanvända förutbildade modeller. Detta tillåter oss att utforska ett brett utrymme av nätverksarkitekturkonfigurationer och samtidigt finjustera modellen för den specifika datamängden som tillhandahålls av användaren.
NeuNetS-algoritmportföljen inkluderar förbättrade versioner av nyligen publicerade verk, såsom TAPAS [3], NCEvolve [4], och HDMS [5], samt en finkornig optimeringsmotor. Dessa algoritmer tar ett steg framåt med avseende på det senaste inom litteraturen och i praktiken, ta itu med grundläggande problem som datauppsättningsgeneralitet och prestandaskalbarhet. TAPAS är en extremt snabb synthesizer för neurala nätverk, prestera nära överförings-inlärningsmetoder genom att förlita sig på förgenererade grundsannings- och smarta förutsägelsemekanismer. NCEvolve syntetiserar topppresterande nätverk, minimera mängden träningstid och resursbehov. HDMS kombinerar en förbättrad version av hyperband med förstärkningsinlärning för att syntetisera nätverk som är skräddarsydda för de mindre vanliga datamängderna. Sist men inte minst, vår finkorniga syntesmotor använder en evolutionär algoritm för att bygga anpassade faltningsfilter, vilket leder till finjustering av den neurala arkitekturen på låg nivå.
Framtiden för NeuNetS
Baserat på flera optimeringsalgoritmer och en modulär arkitektur, NeuNetS kan ta emot ett brett utbud av modellsyntesscenarier. Ett nästa steg är att göra det möjligt för användare att inte bara uppdatera data, men också att bestämma hur mycket tid och hur många resurser som ska avsättas för modelsyntesen, samt valfritt modellens maximala storlek, och målinstallationsplattformen. I detta avseende kommer arbetsbelastningar för IoT och tidsserieanalys att spela en stor roll. För att göra det möjligt för användare att effektivt använda de syntetiserade modellerna, vi skapar innovativa visualiseringsmöjligheter för att jämföra nyckelmodellegenskaper inklusive prestanda, storlek och typ. För att fortsätta hjälpa användare när en modell har implementerats och främja deras förtroende för AI, vi arbetar med tekniker som förbättrar insynen i modellens struktur och beteende över hela AI-livscykeln.
Prova NeuNetS nu
NeuNetS beta är tillgänglig idag som en del av AI OpenScale-produkten i Watson Studio, på IBM Cloud. Denna första version erbjuder modellsyntes för bild- och textklassificering, med prestanda liknande den för handgjorda neurala nätverk. Visuella arbetsbelastningar har varit föremål för intensiv forskning, utveckling, och tävlingar under det senaste decenniet och utgör därmed ett tufft riktmärke. I kontrast, modeller med hög noggrannhet för text är inte utbredda idag, och NeuNetS kommer att hjälpa icke-experta användare att dra nytta av den senaste tekniken som finns tillgänglig på denna domän.
Du kan få åtkomst på den här länken:dataplatform.cloud.ibm.com/ml/neunets.
Den här historien återpubliceras med tillstånd av IBM Research. Läs originalberättelsen här.