Mot bakgrund av mer konventionell teknik, Sandia National Laboratories forskare, från vänster, Steve Verzi, William Severa, Brad Aimone och Craig Vineyard har olika versioner av framväxande neuromorfa hårdvaruplattformar. Whetstone-metoden gör artificiell intelligens algoritmer mer effektiva, gör att de kan implementeras på mindre, mindre strömkrävande hårdvara. Kredit:Randy Montoya
Bryne, ett mjukvaruverktyg som skärper produktionen av artificiella neuroner, har gjort det möjligt för neurala datornät att behandla information upp till hundra gånger effektivare än den nuvarande industristandarden, säger Sandia National Laboratories forskare som utvecklade den.
Programvaran med passande namn, vilket avsevärt minskar mängden kretsar som behövs för att utföra autonoma uppgifter, förväntas öka penetrationen av artificiell intelligens på marknaderna för mobiltelefoner, självkörande bilar och automatiserad tolkning av bilder.
"Istället för att skicka ut oändliga energidroppar av information, "Sandias neuroforskare Brad Aimone sa, "konstgjorda neuroner tränade av Whetstone frigör energi i spikar, ungefär som mänskliga neuroner gör."
De största företagen inom artificiell intelligens har producerat spikverktyg för sina egna produkter, men ingen är så snabb eller effektiv som Whetstone, säger Sandia-matematikern William Severa. "Stora företag är medvetna om denna process och har byggt liknande system, men ofta fungerar deras bara för sin egen design. Whetstone kommer att fungera på många neurala plattformar."
Koden med öppen källkod presenterades nyligen i en teknisk artikel i Nature Machine Intelligence och har föreslagits av Sandia för ett patent.
Hur man skärper neuroner
Konstgjorda neuroner är i grunden kondensatorer som absorberar och summerar elektriska laddningar som de sedan släpper ut i små skurar av elektricitet. Datorchip, kallas "neuromorfa system, " montera neurala nätverk till stora grupperingar som efterliknar den mänskliga hjärnan genom att skicka elektriska stimuli till neuroner som avfyrar i ingen förutsägbar ordning. Detta står i kontrast till en mer låsstegsprocedur som används av stationära datorer med deras förinställda elektroniska processer.
På grund av deras slumpmässiga skjutning, neuromorfa system är ofta långsammare än konventionella datorer men kräver också mycket mindre energi för att fungera. De kräver också ett annat förhållningssätt till programmering eftersom deras artificiella neuroner annars avfyrar för ofta eller inte tillräckligt ofta, vilket har varit ett problem med att få dem online kommersiellt.
Bryne, som fungerar som en kompletterande datorkod kopplad till mer konventionella programvaruutbildningar, tränar och skärper artificiella neuroner genom att utnyttja de som spetsar endast när en tillräcklig mängd energi—läs, information — har samlats in. Utbildningen har visat sig effektiv för att förbättra standard neurala nätverk och håller på att utvärderas för den framväxande tekniken för neuromorfa system.
Catherine Schuman, en neural nätverksforskare vid Oak Ridge National Laboratories, sa, "Whetstone är ett viktigt verktyg för det neuromorfa samhället. Det tillhandahåller ett standardiserat sätt att träna traditionella neurala nätverk som är tillgängliga för utplacering på neuromorfa system, som tidigare hade gjorts på ett ad hoc sätt."
Den strikte läraren
Whetstone-processen, Aimone sa, kan visualiseras som att kontrollera en klass pratglada grundskoleelever som har i uppdrag att identifiera ett föremål på sin lärares skrivbord. Före Whetstone, eleverna skickade en kontinuerlig ström av sensorinmatning till sin tidigare överväldigade lärare, som var tvungen att lyssna på allt - varje stöt och fniss, så att säga – innan ett beslut skickas in i nervsystemet. Denna enorma mängd information kräver ofta molnbaserad beräkning för att bearbeta, eller tillägg av mer lokal datorutrustning i kombination med en kraftig ökning av elkraften. Båda alternativen ökar tiden och kostnaderna för kommersiella produkter med artificiell intelligens, minska deras säkerhet och integritet och göra deras acceptans mindre sannolikt.
Under Whetstone, deras nyligen strikta lärare uppmärksammar bara ett enkelt "ja" eller "nej"-mått på varje elev - när de räcker upp handen med en lösning, snarare än till allt de säger. Anta, till exempel, avsikten är att identifiera om en bit grön frukt på lärarens skrivbord är ett äpple. Varje elev är en sensor som kan reagera på en annan kvalitet av det som kan vara ett äpple:Har det rätt luktkvalitet, smak, konsistens och så vidare? Och medan eleven som letar efter rött kan rösta "nej" skulle den andra eleven som letar efter grönt rösta "ja". När antalet svar, antingen jaja eller nej, är tillräckligt elektriskt hög för att utlösa neurons förmåga att avfyra, det enkla resultatet, istället för oändligt svamlande, kommer in i det övergripande nervsystemet.
Medan Whetstone-förenklingar potentiellt kan öka antalet fel, det överväldigande antalet deltagande neuroner – ofta över en miljon – tillhandahåller information som statistiskt kompenserar för de felaktigheter som införts av dataförenklingen, Severa sa, ansvarig för programmets matematik.
"Att kombinera alltför detaljerad intern information med det enorma antalet neuroner som rapporterar in är ett slags dubbelbokning, " säger han. "Det är onödigt. Våra resultat säger oss att det klassiska sättet – att beräkna allt utan att förenkla – är slöseri. Det är därför vi kan spara energi och göra det bra."
Patchade program fungerar bäst
Programvaran fungerar bäst när den är lappad i program som är avsedda att träna ny artificiell intelligensutrustning, så Whetstone behöver inte övervinna inlärda mönster med redan etablerade energiminimum.