• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • DistME:En snabb och elastisk distribuerad matrisberäkningsmotor som använder GPU:er

    Detta är ett mimetiskt diagram (a) av 3D-datamultiplikation genom CuboidMM och mimetiskt diagram (b) för databehandlingsberäkning med GPU. Kredit:DGIST

    DGIST meddelade den 4 juli att professor Min-Soo Kims team vid institutionen för informations- och kommunikationsteknik utvecklat tekniken DistME (Distributed Matrix Engine) som kan analysera 100 gånger mer data 14 gånger snabbare än de befintliga teknologierna. Denna nya teknik förväntas användas i maskininlärning som behöver bearbeta stordata eller olika branschområden för att analysera storskalig data i framtiden.

    "Matrix" data, som uttrycker siffror i rad och kolumn, är den mest använda formen av data inom olika områden som maskininlärning och naturvetenskaplig teknik. Medan 'SystemML' och 'ScaLAPACK' utvärderas som de mest populära teknikerna för att analysera matrisdata, men bearbetningsförmågan hos befintlig teknik har nyligen nått sina gränser med den växande datastorleken. Det är särskilt svårt att utföra multiplikationer, som krävs för databehandling, för big data-analys med de befintliga metoderna eftersom de inte kan utföra elastisk analys och bearbetning och kräver en enorm mängd nätverksdataöverföring för bearbetning.

    Som svar, Professor Kims team utvecklade en distribuerad matrismultiplikationsmetod som skiljer sig från den befintliga. Kallas även CuboidMM, denna metod bildar matrismultiplikation i en 3-D hexaeder och sedan partitioner och processer till flera delar som kallas cuboids. Den optimala storleken på kuben bestäms flexibelt beroende på egenskaperna hos matriserna, dvs. storleken, dimensionen, och gleshet av matris, för att minimera kommunikationskostnaderna. CuboidMM inkluderar inte bara alla befintliga metoder utan kan också utföra matrismultiplikation med minimal kommunikationskostnad. Dessutom, Professor Kims team tog fram en informationsbehandlingsteknik genom att kombinera med GPU (Graphics Processing Unit) som dramatiskt förbättrade prestandan för matrismultiplikation.

    DistME-teknologin som utvecklats av professor Kims team har ökat bearbetningshastigheten genom att kombinera CuboidMM med GPU, som är 6,5 och 14 gånger snabbare än ScaLAPACK respektive SystemML och kan analysera 100 gånger större matrisdata än SystemML. Det förväntas öppna ny tillämpbarhet av maskininlärning inom olika områden som behöver storskalig databearbetning inklusive online-köpcentra och SNS.

    Professor Kim vid institutionen för informations- och kommunikationsteknik sa "Machine Learning Technology, som har väckt uppmärksamhet över hela världen, har begränsningar i hastigheten för stordataanalys i matrisform och storleken på analysbearbetningen. Den informationsbehandlingsteknik som utvecklats den här gången kan övervinna sådana begränsningar och kommer att vara användbar inte bara i maskininlärning utan även i tillämpningar inom ett bredare spektrum av applikationer för naturvetenskaplig dataanalys."

    Denna forskning deltog av Donghyoung Han, en Ph.D. student vid institutionen för informations- och kommunikationsteknik som första författare och presenterades den 3 juli i ACM SIGMOD 2019, den mest kända akademiska konferensen inom databasområdet som hölls i Amsterdam, Nederländerna.


    © Vetenskap https://sv.scienceaq.com