• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Sammanfoga minne och beräkning, programmerbara chiphastigheter AI, minskar energianvändningen

    Kredit:Princeton University

    Genom att flytta en grundläggande egenskap för beräkning, Princeton-forskare har byggt en ny typ av datorchip som ökar prestandan och minskar energibehovet för system som används för artificiell intelligens.

    Chipet, som fungerar med vanliga programmeringsspråk, kan vara särskilt användbart på telefoner, klockor eller andra enheter som förlitar sig på högpresterande datorer och har begränsad batteritid.

    Chipet, baserad på en teknik som kallas in-memory computing, är utformad för att rensa en primär beräkningsflaskhals som tvingar datorprocessorer att spendera tid och energi på att hämta data från lagrat minne. In-memory computing utför beräkning direkt i lagringen, vilket möjliggör högre hastighet och effektivitet.

    Tillkännagivandet av det nya chipet, tillsammans med ett system för att programmera det, följer noga på en tidigare rapport om att forskarna i samarbete med Analog Devices Inc. hade tillverkat kretsar för in-memory computing. Laboratorietester av kretsen visade att chippet skulle fungera tiotals till hundratals gånger snabbare än jämförbara kretsar. Dock, det ursprungliga chippet inkluderade inte alla komponenter i den senaste versionen, så dess kapacitet var begränsad.

    I det nya tillkännagivandet, forskare i labbet av Naveen Verma, en docent i elektroteknik, rapporterar att de har integrerat minneskretsarna i en programmerbar processorarkitektur. Chipet fungerar nu med vanliga datorspråk som C.

    "Det tidigare chippet var en stark och kraftfull motor, sa Hongyang Jia, en doktorand i Vermas grupp och en av chipdesignerna. "Det här chippet är hela bilen."

    Även om det skulle kunna fungera med ett brett utbud av system, Princeton-chippet är avsett att stödja system utformade för djupinlärning av slutledningar – algoritmer som gör det möjligt för datorer att fatta beslut och utföra komplexa uppgifter genom att lära sig av datamängder. Deep learning-system styr sådant som självkörande bilar, ansiktsigenkänningssystem och medicinsk diagnostisk programvara.

    Verma sa att för många applikationer, chipets energibesparingar skulle vara lika kritiska som prestandaökningen. Det beror på att många AI-applikationer förväntas fungera på enheter som drivs av batterier som mobiltelefoner eller bärbara medicinska sensorer. Apple iPhone X, till exempel, har redan ett AI-chip som en del av sin krets. Men, både energibesparingar och prestandahöjningar är bara användbara om de kan nås av den breda basen av applikationer som behöver dem – det är där behovet av programmerbarhet kommer in.

    "Den klassiska datorarkitekturen separerar den centrala processorn, som krossar data, från minnet, som lagrar data, ", sa Verma. "Mycket av datorns energi går åt till att flytta data fram och tillbaka."

    Till viss del, det nya chippet är ett svar på det långsammare löftet om Moores lag. 1965, Intels grundare Gordon Moore observerade att antalet transistorer på integrerade kretsar fördubblades ungefär varje år, och industrin noterade också att dessa transistorer blev snabbare och mer energieffektiva i processen. I årtionden, dessa observationer, som blev känd som Moores lag, underbyggde en omvandling där datorer blev allt kraftfullare. Men de senaste åren, transistorer har inte fortsatt att förbättras som tidigare, stöter på grundläggande begränsningar i deras fysik.

    Verma, som är specialiserad på krets- och systemdesign, tänkte på sätt att kringgå denna press på arkitektonisk nivå snarare än transistornivå. Beräkningen som behövs för AI skulle vara mycket effektivare om den kunde göras på samma plats som datorns minne eftersom det skulle eliminera den tid och energi som används för att hämta data lagrade långt borta. Det skulle göra datorn snabbare utan att uppgradera transistorerna. Men att skapa ett sådant system innebar en utmaning. Minneskretsar är utformade så tätt som möjligt för att packa in stora mängder data. Beräkning, å andra sidan, kräver att utrymme ägnas åt ytterligare transistorer.

    Ett alternativ var att ersätta transistorerna med elektriska komponenter som kallas kondensatorer. Transistorer är i huvudsak omkopplare som använder spänningsändringar för att stå för 1:orna och 0:orna som utgör binära datorsignaler. De kan göra alla möjliga beräkningar med arrayer med 1 och 0 siffror, därför kallas systemen digitala. Kondensatorer lagrar och frigör elektrisk laddning, så att de kan representera vilket tal som helst, inte bara 1:or och 0:or. Verma insåg att med kondensatorer kunde han utföra beräkningar i ett mycket tätare utrymme än han kunde med transistorer.

    Kondensatorer kan också tillverkas mycket exakt på ett chip, mycket mer än transistorer. Den nya designen parar kondensatorer med konventionella celler av statiskt slumpmässigt minne (SRAM) på ett chip. Kombinationen av kondensatorer och SRAM används för att utföra beräkningar på data i den analoga (inte digitala) domänen, ändå på sätt som är tillförlitliga och lätta att inkludera programmerbarhetsfunktioner. Nu, minneskretsarna kan utföra beräkningar på sätt som styrs av chipets centralenhet.

    "In-memory computing har visat mycket lovande de senaste åren, att verkligen ta itu med energin och hastigheten hos datorsystem, ", sa Verma. "Men den stora frågan har varit om det löftet skulle skalas och vara användbart av systemdesigners för alla AI-applikationer vi verkligen bryr oss om. Det gör programmerbarhet nödvändig."


    © Vetenskap https://sv.scienceaq.com