• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Google tränar chips för att designa själva

    Upphovsman:CC0 Public Domain

    En av de viktigaste utmaningarna med datordesign är hur man packar chips och kablar på det mest ergonomiska sättet, behålla makt, hastighet och energieffektivitet.

    Receptet innehåller tusentals komponenter som måste kommunicera perfekt med varandra, allt på en fastighet i storlek med en nagel.

    Processen är känd som chipgolvplanering, liknande vad inredningsarkitekter gör när de lägger upp planer på att klä upp ett rum. Med digital krets, dock, istället för att använda en planlösning, designers måste överväga integrerade layouter inom flera våningar. Som en teknisk publikation hänvisade till den nyligen, chip golv planering är 3-D Tetris.

    Processen är tidskrävande. Och med ständig förbättring av chipkomponenter, mödosamt beräknade slutdesigner blir snabbt föråldrade. Chips är vanligtvis utformade för att hålla mellan två och fem år, men det finns ett konstant tryck för att förkorta tiden mellan uppgraderingar.

    Googles forskare har precis tagit ett stort steg i golvplaneringsdesign. I ett nyligen tillkännagivande, senior Google -forskningsingenjörer Anna Goldie och Azalia Mirhoseini sa att de har utformat en algoritm som "lär sig" hur man kan uppnå optimal kretsplacering. Det kan göra det på en bråkdel av den tid som för närvarande krävs för sådan design, analysera potentiellt miljontals möjligheter istället för tusentals, som för närvarande är normen. Genom att göra så, det kan ge chips som drar fördel av den senaste utvecklingen snabbare, billigare och mindre.

    Goldie och Mirhoseini tillämpade begreppet förstärkningslärande på den nya algoritmen. Systemet genererar "belöningar" och "straff" för varje föreslagen design tills algoritmen bättre känner igen de bästa tillvägagångssätten.

    Begreppet sådan förstärkning har rötter i psykologskolan som kallas behaviorism. Dess grundare, John Watson, berömt föreslog alla djur, inklusive människor, var i grunden komplexa maskiner som ”lärde sig” genom att svara på positiva och negativa svar. Hur förvånad Watson skulle vara att lära sig att principer som han först artikulerade 1913 mer än ett sekel senare tillämpas även på "intelligenta" maskiner.

    Google -forskare sa att efter omfattande tester, de fann att deras nya tillvägagångssätt för konstgjord intelligenta löpande bandsproduktion var överlägset mönster som skapats av mänskliga ingenjörer.

    "Vi tror att det är AI själv som kommer att ge medel för att förkorta chipdesigncykeln, skapa ett symbiotiskt förhållande mellan hårdvara och AI, med varje bränsle framsteg i den andra, "sa designerna i ett uttalande som publicerades på arxiv.org, ett förråd av vetenskaplig forskning som hanteras av Cornell University.

    Datakretsar har kommit långt sedan den första "helelektroniska beräkningsmaskinen"-ENIAC-presenterades 1945. Jam fylld med 18, 000 vakuumrör, föregångarna till integrerade kretsar och datorchips, och miles av ledningar, den massiva maskinen på 6 miljoner dollar sträckte sig så bred som tre pendelbussar, vägde 30 ton och tog upp ett helt rum i Princeton University lab där det skapades.

    Dagens iPhones har chips i storleken på en rosa nagel som är 1, 300 gånger starkare, 40 miljoner gånger mindre och 1/17, 000 kostnaden för ENIAC.

    Googles nya algoritm kan också hjälpa till att säkerställa fortsättningen av Moores lag, som anger antalet transistorer förpackade i mikrochips fördubblas vartannat eller vartannat år. År 1970, Intels 4004 -chip rymmer 2, 250 transistorer. I dag, AMD Epyc Rome är värd för 39,5 miljarder transistorer.

    Vilket lämnar gott om möjligheter för Googles nya rumsdesignalgoritm.

    © 2020 Science X Network




    © Vetenskap https://sv.scienceaq.com