• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Fysisk träning är nästa hinder för artificiell intelligens, säger forskare

    Kredit:Pixabay/CC0 Public Domain

    Låt en miljon apor klappa på en miljon skrivmaskiner i en miljon år och, säger ordspråket, kommer de att återskapa Shakespeares verk. Ge oändliga apor oändlig tid, och de kommer fortfarande inte att uppskatta bardens poetiska vändning-of-fras, även om de kan skriva ut orden. Detsamma gäller för artificiell intelligens (AI), enligt Michael Woolridge, professor i datavetenskap vid University of Oxford. Frågan, sa han, är inte processorkraften, utan snarare bristen på erfarenhet.

    Hans perspektiv publicerades den 25 juli i Intelligent Computing .

    "Under de senaste 15 åren har hastigheten på framstegen inom AI i allmänhet, och maskininlärning (ML) i synnerhet, upprepade gånger överraskat erfarna AI-kommentatorer som jag själv:vi har varit tvungna att ständigt omkalibrera våra förväntningar på vad som kommer att vara möjligt och när, sa Wooldridge.

    "För allt som deras prestationer är att berömma, tror jag att det finns en avgörande aspekt där de flesta stora ML-modeller är kraftigt begränsade:världen och det faktum att modellerna helt enkelt inte har någon erfarenhet av det."

    De flesta ML-modeller är byggda i virtuella världar, som videospel. De kan träna på enorma datamängder, men för fysiska applikationer saknar de viktig information. Wooldridge pekade på den AI som ligger till grund för autonoma fordon som ett exempel.

    "Att släppa förarlösa bilar lösa på vägarna för att lära sig själva är en nonstarter, så av detta och andra skäl väljer forskare att bygga sina modeller i virtuella världar," sa Wooldridge. "Och på det här sättet blir vi entusiastiska över en generation av AI-system som helt enkelt inte har någon förmåga att fungera i den enskilt viktigaste miljön av alla:vår värld."

    Språk AI-modeller, å andra sidan, utvecklas utan en anspråk på en värld alls – men lider fortfarande av samma begränsningar. De har så att säga utvecklats från skrattretande hemska prediktiva texter till Googles LaMDA, som skapade rubriker tidigare i år när en numera före detta Google-ingenjör hävdade att AI var kännande.

    "Oavsett giltigheten av [ingenjörens] slutsatser, var det tydligt att han var djupt imponerad av LaMDA:s förmåga att konversera - och med goda skäl," sade Wooldridge och noterade att han personligen inte tror att LaMDA är kännande, och inte heller är AI i närheten av en sådan. en milstolpe.

    "Dessa grundmodeller visar aldrig tidigare skådad förmåga att skapa naturliga språk, och producerar utökade bitar av naturligt klingande text. De verkar också ha förvärvat viss kompetens i sunt förnuft, en av AI-forskningens heliga graler under de senaste 60 åren."

    Sådana modeller är neurala nätverk som livnär sig på enorma datamängder och tränar för att förstå dem. Till exempel, GPT-3, en föregångare till LaMDA, tränade på all engelsk text som finns tillgänglig på internet. Mängden träningsdata i kombination med betydande datorkraft gör modellerna besläktade med mänskliga hjärnor, där de går förbi snäva uppgifter för att börja känna igen mönster och skapa kopplingar som till synes inte är relaterade till den primära uppgiften.

    "Satsningen med grundmodeller är att deras omfattande och breda utbildning leder till användbar kompetens inom en rad områden, som sedan kan specialiseras för specifika tillämpningar," sa Wooldridge. "Medan symbolisk AI grundades på antagandet att intelligens främst är ett kunskapsproblem, bygger grundmodeller på antagandet att intelligens i första hand är ett dataproblem. För att förenkla, men inte mycket, kasta tillräckligt med träningsdata till stora modeller, och förhoppningsvis kommer kompetens att uppstå."

    Denna "might is right"-strategi skalar modellerna större för att producera smartare AI, hävdade Wooldridge, men detta ignorerar det fysiska kunnande som behövs för att verkligen utveckla AI.

    "För att vara rättvis, det finns några tecken på att detta håller på att förändras," sa Wooldridge och pekade på Gato-systemet. Tillkännagav i maj av DeepMind, grundmodellen, utbildad på stora språkuppsättningar och på robotdata, skulle kunna fungera i en enkel men fysisk miljö.

    "Det är underbart att se de första babystegen tas in i den fysiska världen av grundmodeller. Men de är bara babysteg:utmaningarna att övervinna för att få AI att fungera i vår värld är minst lika stora - och förmodligen större - än de som står inför genom att få AI att fungera i simulerade miljöer." + Utforska vidare

    En programvaruingenjör från Google tror att en AI har blivit kännande. Om han har rätt, hur skulle vi veta det?




    © Vetenskap https://sv.scienceaq.com