Kredit:University of California - San Diego
Ett team som leds av University of California San Diego har utvecklat ett nytt system med algoritmer som gör det möjligt för fyrbenta robotar att gå och springa i utmanande terräng samtidigt som de undviker både statiska och rörliga hinder.
I tester styrde systemet en robot att manövrera autonomt och snabbt över sandytor, grus, gräs och gropiga smutskullar täckta med grenar och nedfallna löv utan att stöta på stolpar, träd, buskar, stenblock, bänkar eller människor. Roboten navigerade också i en hektisk kontorsyta utan att stöta på lådor, skrivbord eller stolar.
Arbetet tar forskarna ett steg närmare att bygga robotar som kan utföra sök- och räddningsuppdrag eller samla information på platser som är för farliga eller svåra för människor.
Teamet kommer att presentera sitt arbete vid 2022 års internationella konferens om intelligenta robotar och system (IROS), som kommer att äga rum 23-27 oktober i Kyoto, Japan.
Systemet ger en robot med ben mer mångsidighet på grund av hur det kombinerar robotens synsinne med en annan avkänningsmodalitet som kallas proprioception, som involverar robotens känsla av rörelse, riktning, hastighet, plats och beröring – i det här fallet känslan av marken under fötterna.
För närvarande bygger de flesta metoder för att träna benrobotar att gå och navigera antingen på proprioception eller syn, men inte båda samtidigt, säger seniorförfattaren Xiaolong Wang, professor i elektro- och datorteknik vid UC San Diego Jacobs School of Engineering .
"I det ena fallet är det som att träna en blind robot att gå genom att bara röra och känna marken. Och i det andra planerar roboten sina benrörelser baserat på enbart synen. Den lär sig inte två saker samtidigt", sa roboten. Wang. "I vårt arbete kombinerar vi proprioception med datorseende för att göra det möjligt för en robot med ben att röra sig effektivt och smidigt – samtidigt som man undviker hinder – i en mängd olika utmanande miljöer, inte bara väldefinierade."
Systemet som Wang och hans team utvecklade använder en speciell uppsättning algoritmer för att smälta samman data från realtidsbilder tagna av en djupkamera på robotens huvud med data från sensorer på robotens ben. Detta var ingen enkel uppgift. "Problemet är att under verklig drift, finns det ibland en liten fördröjning i att ta emot bilder från kameran", förklarade Wang, "så att data från de två olika avkänningsmodaliteterna inte alltid kommer fram samtidigt."
Teamets lösning var att simulera denna oöverensstämmelse genom att randomisera de två uppsättningarna av ingångar - en teknik som forskarna kallar multimodal fördröjningsrandomisering. De sammansmälta och randomiserade ingångarna användes sedan för att träna en förstärkningsinlärningspolicy på ett heltäckande sätt. Detta tillvägagångssätt hjälpte roboten att fatta beslut snabbt under navigering och förutse förändringar i sin miljö i förväg, så att den kunde förflytta sig och undvika hinder snabbare i olika typer av terräng utan hjälp av en mänsklig operatör.
På väg framåt arbetar Wang och hans team på att göra robotar med ben mer mångsidiga så att de kan erövra ännu mer utmanande terräng. "Just nu kan vi träna en robot att göra enkla rörelser som att gå, springa och undvika hinder. Våra nästa mål är att göra det möjligt för en robot att gå upp och ner för trappor, gå på stenar, ändra riktning och hoppa över hinder."
Teamet har släppt sin kod på GitHub och tidningen är tillgänglig på arXiv förtrycksserver. + Utforska vidare