• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Intel:Hot Chips-händelsedetaljer AI-styrka-processorer

    Kredit:CC0 Public Domain

    Tekniska tittare i veckan fick ett stort antal imponerande AI -acceleratorarbete på Intel, nämligen avslöjanden vid Hot Chips 2019-evenemanget, där Intel presenterade detaljer om sina Nervanas neurala nätverksprocessorer, (1) NNP-T för träning och (2) NNP-I för slutledning.

    Låt oss först besöka slutsatsen (Spring Hill), och NNP-1, efter att ha utvecklats vid sin anläggning i Haifa, Israel. NNP-1 står för Neural Network Processor för inferens.

    Dess konstruktion kommer att tillåta den "att klara höga arbetsbelastningar med minimala mängder energi, sa Steven Scheer, Reuters.

    Beskriver dess funktion, Ravie Lakshmananin, TNW, sa att den "specifikt riktar inferensaspekten av AI för att härleda nya insikter. Genom att använda en specialbyggd AI-inferensberäkningsmotor, NNP-I ger bättre prestanda med lägre effekt. "

    Var kommer namnet Nervana ifrån? Nervana Systems är företaget som det förvärvade 2016. Då, analytiker Karl Freund berättade EE Times att det var mycket vettigt för Intel att göra det. Att skaffa Nervana var ett sätt att komma in på marknaden för djupinlärning.

    Denna vecka, frågan om varför förvandlades till ett varför-inte av en talesperson för Intel.

    "För att nå en framtida situation med 'AI överallt', vi måste hantera enorma mängder data som genereras och se till att organisationer är utrustade med vad de behöver för att effektivt använda data och bearbeta dem där de samlas in, sa Naveen Rao, grundare av Nervana och nu chef för Intels produktgrupp för artificiell intelligens, i en rapport från Reuters. "Dessa datorer behöver acceleration för komplexa AI -applikationer."

    Tech watchers inklusive SiliconANGLE sa att NNP-1 var bra för stora datacenter som kör AI-arbetsbelastningar. Fossbytes sa att en omfattande uppsättning RAS-funktioner skulle säkerställa att den enkelt kan distribueras i befintliga datacenter.

    Joel Hruska in ExtremeTech :"Intel hävdar att NNP-I kan leverera ResNet50-prestanda på 3, 600 slutsatser per sekund vid körning med en 10W TDP. Det motsvarar 4,8 TOPS/watt, som uppfyller Intels övergripande effektivitetsmål (företaget hävdar att NNP-I är mest effektivt vid lägre watt). "

    Den andra punkten av intresse på Hot Chips-konferensen 2019 var NNP-T, som står för Intel Nervana Neural Network Processor for Training. Intel beskrev NNP-T (koden Spring Crest) som specialbyggd (1) för att träna komplexa djupinlärningsmodeller i massiv skala, och (2) förenkla distribuerad utbildning med out-of-the-box utskalningsstöd.

    Paul Alcorn, Tom's Hardware , skrev om hur "NNP-T är utformad för att skala limfritt från chassi till chassi, och till och med rack-to-rack, utan en switch. "Han sa att nätverket var specialdesignat med hög bandbredd och låg latens i åtanke; i sin tur, Arkitekturen ska hantera "massiva modeller som skalas till 5 eller 8 miljarder parametrar, eller bortom. "

    Naveen Rao kommenterade:"Intel Nervana NNP-T tänjer på gränserna för djupinlärningsträning. Den är byggd för att prioritera två viktiga reella överväganden:hur man tränar ett nätverk så snabbt som möjligt och hur man gör det inom en given energibudget." Arkitekturen byggdes från grunden, utan äldre arbetsbelastningar att stödja.

    I den större bilden, The Times of Israel sa "Företag som Intel, Nvidia, Qualcomm och Google och startups globalt är alla på jakt efter ny teknik inom detta område, vilket bland annat innebär att man skapar hårdvaran för att möjliggöra behandling av enorma mängder information. "

    Bearbetningshårdvaran har två syften, skrev Shoshanna Solomon:(1) träna datorerna att göra nya uppgifter och (2) lära dem att sluta sig till och därigenom nå insikter.

    Allt som allt, Intel gör sitt för att dataforskare kan göra både när de arbetar med ostrukturerade och komplexa data.

    © 2019 Science X Network




    © Vetenskap https://sv.scienceaq.com