• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Den osäkra enhjulingen som lärde sig själv och hur den hjälper AI att fatta bra beslut

    Kredit:Distriktet

    Cambridge-forskare är banbrytande för en form av maskininlärning som börjar med bara lite förkunskaper och ständigt lär sig av omvärlden.

    I mitten av skärmen finns en liten enhjuling. Animationen startar, enhjulingen lunkar fram och faller. Detta är rättegång #1. Det är nu rättegång #11 och det finns en förändring – en nästan omärklig försening på hösten, kanske ett försök att rätta till sig inför den oundvikliga kraschen. "Det är att lära sig av erfarenhet, " nickar professor Carl Edward Rasmussen.

    Efter en minut, enhjulingen gungar försiktigt fram och tillbaka medan den cirklar på plats. Den har tagit reda på hur detta extremt instabila system fungerar och har bemästrat sitt mål. "Enhjulingen börjar med att inte veta något om vad som händer - det har bara sagts att dess mål är att stanna i centrum på ett upprätt sätt. När den börjar falla framåt och bakåt, det börjar lära sig, " förklarar Rasmussen, som leder Computational and Biological Learning Lab på Institutionen för teknik. "Vi hade en riktig enhjulingsrobot men den var faktiskt ganska farlig – den var stark – så nu använder vi data från den riktiga för att köra simuleringar, och vi har en miniversion."

    Rasmussen använder den självlärda enhjulingen för att visa hur en maskin kan starta med väldigt lite data och lära sig dynamiskt, förbättra sin kunskap varje gång den får ny information från sin omgivning. Konsekvenserna av att justera dess motoriserade momentum och balans hjälper enhjulingen att lära sig vilka rörelser som var viktiga för att hjälpa den att hålla sig upprätt i mitten.

    "Det här är precis som en människa skulle lära sig, " förklarar professor Zoubin Ghahramani, som leder Machine Learning Group på Institutionen för teknik. "Vi börjar inte veta allt. Vi lär oss saker stegvis, endast från några få exempel, och vi vet när vi ännu inte är säkra på vår förståelse."

    Ghahramanis team är banbrytande för en gren av AI som kallas kontinuerlig maskininlärning. Han förklarar att många av de nuvarande formerna av maskininlärning är baserade på neurala nätverk och modeller för djupinlärning som använder komplexa algoritmer för att hitta mönster i stora datamängder. Vanliga tillämpningar inkluderar att översätta fraser till olika språk, känna igen människor och föremål i bilder, och upptäcka ovanliga utgifter för kreditkort.

    "Dessa system behöver tränas på miljontals märkta exempel, som tar tid och mycket datorminne, " förklarar han. "Och de har brister. När du testar dem utanför de data som de utbildats på tenderar de att prestera dåligt. Förarlösa bilar, till exempel, kan tränas på en enorm datauppsättning av bilder men de kanske inte kan generaliseras till dimmiga förhållanden.

    "Värre än så, de nuvarande systemen för djupinlärning kan ibland ge oss säkert felaktiga svar, och ge begränsad insikt om varför de har fattat särskilda beslut. Det är det här som stör mig. Det är okej att ha fel, men det är inte okej att självsäkert ha fel."

    Nyckeln är hur du hanterar osäkerhet – osäkerheten med rörig och saknad data, och osäkerheten i att förutsäga vad som kan hända härnäst. "Osäkerhet är inte bra – det är något man bekämpar, men du kan inte bekämpa det genom att ignorera det, ", säger Rasmussen. "Vi är intresserade av att representera osäkerheten."

    Det visar sig att det finns en matematisk teori som talar om för dig vad du ska göra. Den beskrevs först av den engelska statistikern Thomas Bayes på 1700-talet. Ghahramanis grupp var en av de tidigaste anhängarna inom AI av Bayesiansk sannolikhetsteori, som beskriver hur sannolikheten för att en händelse inträffar (som att hålla sig upprätt i mitten) uppdateras när fler bevis (som det beslut enhjulingen senast tog innan den ramlade) blir tillgängliga.

    Dr Richard Turner förklarar hur Bayes regel hanterar kontinuerligt lärande:"systemet tar sina förkunskaper, väger den efter hur korrekt den tror att kunskapen är, kombinerar det sedan med nya bevis som också vägs av dess noggrannhet.

    "Detta är mycket mer dataeffektivt än hur ett standardneuralt nätverk fungerar, " tillägger han. "Ny information kan få ett neuralt nätverk att glömma allt det lärt sig tidigare – kallat katastrofal glömska – vilket betyder att det måste titta på alla sina märkta exempel igen, som att lära sig om reglerna och ordlistan för ett språk varje gång du lär dig ett nytt ord.

    "Vårt system behöver inte gå igenom all data det har sett tidigare – precis som människor inte kommer ihåg alla tidigare erfarenheter; istället lär vi oss en sammanfattning och vi uppdaterar den allt eftersom saker och ting fortskrider." Ghahramani tillägger:"Det fantastiska med Bayesiansk maskininlärning är att systemet fattar beslut baserat på bevis – det anses ibland vara att "automatisera den vetenskapliga metoden" – och eftersom det är baserat på sannolikhet, den kan berätta för oss när den är utanför sin komfortzon."

    Ghahramani är också chefsforskare på Uber. Han ser en framtid där maskiner ständigt lär sig inte bara individuellt utan som en del av en grupp. "Oavsett om det är företag som Uber som optimerar utbud och efterfrågan, eller autonoma fordon som varnar varandra för vad som väntar på vägen, eller robotar som arbetar tillsammans för att lyfta en tung last – samarbete, och ibland tävling, i AI kommer att hjälpa till att lösa problem inom ett stort antal branscher."

    En av de riktigt spännande gränserna är att kunna modellera sannolika resultat i framtiden, som Turner beskriver. "Osäkerhetens roll blir väldigt tydlig när vi börjar prata om att förutse framtida problem som klimatförändringar."

    Turner samarbetar med klimatforskarna Dr. Emily Shuckburgh och Dr. Scott Hosking vid British Antarctic Survey för att fråga om maskininlärningstekniker kan förbättra förståelsen för risker för klimatförändringar i framtiden.

    "Vi måste kvantifiera den framtida risken och effekterna av extremt väder i lokal skala för att informera politiska svar på klimatförändringar, " förklarar Shuckburgh. "De traditionella datorsimuleringarna av klimatet ger oss en god förståelse för de genomsnittliga klimatförhållandena. Vad vi siktar på med detta arbete är att kombinera den kunskapen med observationsdata från satelliter och andra källor för att få bättre grepp om, till exempel, risken för väderhändelser med låg sannolikhet men stor påverkan."

    "Det är faktiskt en fascinerande maskininlärningsutmaning, säger Turner, vem hjälper till att identifiera vilket område av klimatmodellering som är mest mottagligt för att använda Bayesiansk sannolikhet. "Datan är extremt komplex, och ibland saknas och omärkta. Osäkerheterna är utbredda." En betydande osäkerhetsfaktor är det faktum att förutsägelserna baseras på vår framtida minskning av utsläppen, vars omfattning är ännu okänd.

    "En intressant del av detta för beslutsfattare, bortsett från prognosvärdet, är att du kan föreställa dig att ha en maskin som ständigt lär sig av konsekvenserna av begränsningsstrategier som att minska utsläppen – eller avsaknaden av dem – och justerar sina förutsägelser därefter, ", tillägger Turner.

    Det han beskriver är en maskin som – precis som enhjulingen – livnär sig på osäkerhet, lär sig kontinuerligt av den verkliga världen, och bedömer och omvärderar sedan alla möjliga resultat. När det kommer till klimatet, dock, det är också en maskin för alla möjliga framtider.


    © Vetenskap https://sv.scienceaq.com