Kredit:Datavetenskap &Artificiell Intelligens Laboratory
Om du tittar på den här pick-and-place-roboten ser du omedelbart varför det är en stor sak – inte så mycket för skicklighet och fina rörelser, även om roboten gör mål i båda, men bara för att det är så smart.
Det är ganska uppenbart från nyheterna som strömmar ut från universitetslaboratorier att robotarmar och händer utformade för att plocka och sortera är ett frekvent ämne; ambitiösa forskare försöker få högre poäng för effektiva lösningar.
Som MIT CSAIL uttryckte det, "för alla framsteg vi har gjort med robotar, de har fortfarande knappt kompetensen som en tvååring. Fabriksrobotar kan plocka upp samma föremål om och om igen, och vissa kan till och med göra några grundläggande skillnader mellan objekt, men de har i allmänhet svårt att förstå ett brett spektrum av föremålsformer och storlekar, eller att kunna flytta nämnda föremål till olika poser eller platser."
Veckans buzz handlar om den här roboten, med dess utvalda "keypoints"-stil för att uppnå en mer avancerad nivå av koordination. De har utforskat ett nytt sätt att identifiera och röra sig hela klasser av föremål, representerar dem som grupper av 3D-nyckelpunkter.
Ingenjören citerade MIT-professorn Russ Tedrake, senior författare till tidningen som beskriver deras arbete och uppe på arXiv. "Robotar kan plocka upp nästan vad som helst, men om det är ett föremål de inte har sett förut, de kan faktiskt inte lägga ner det på något meningsfullt sätt."
Ingenjören gav sin nick till ett tillvägagångssätt som lät som "en typ av visuell färdplan som tillåter mer nyanserad manipulation."
Du kan se roboten i aktion i en kPAM-förhandsvideo, "Exakt robotmanipulation med aldrig tidigare skådade föremål." Vad är kpam? Det står för Keypoint Affordances for Robotic Level Manipulation. Roboten får all information den behöver för att plocka upp, flytta och placera föremål.
"Att förstå bara lite mer om objektet – placeringen av några få nyckelpunkter – är tillräckligt för att möjliggöra ett brett utbud av användbara manipulationsuppgifter, " sa MIT-professorn Russ Tedrake.
Ett papper som beskriver deras arbete, som är uppe på arXiv, har titeln "kPAM:KeyPoint Affordances for Category-Level Robotic Manipulation, " av Lucas Manuelli, Wei Gao, Peter Florence och Russ Tedrake. De är med CSAIL (Computer Science and Artificial Intelligence Laboratory) vid Massachusetts Institute of Technology.
Här är vad tidningens författare hade att säga om hur deras tillvägagångssätt är ett steg bort från befintliga "manipulationspipelines". Den senare anger vanligtvis den önskade konfigurationen som en mål 6-DOF pose, som har sina begränsningar. Att representera ett objekt "med en parametriserad transformation definierad på en fast mall kan inte fånga stora formvariationer inom kategorin, och att specificera en målställning på kategorinivå kan vara fysiskt omöjligt eller misslyckas med att utföra uppgiften."
Att känna till posituren och storleken på en kaffemugg i förhållande till någon kanonmugg är ok, men det räcker inte att hänga den på ett ställ i handtaget. Deras tillvägagångssätt är att använda "semantiska 3D-nyckelpunkter som objektrepresentation." Vad blev resultatet av deras utforskning? Deras metod kunde hantera "stora intrakategorivariationer utan någon instansvis justering eller specifikation."
Teamet rapporterade att "Omfattande hårdvaruexperiment visar att vår metod på ett tillförlitligt sätt kan utföra uppgifter med aldrig tidigare sett objekt i en kategori, som att placera skor och muggar med betydande formvariationer i målkonfigurationer på kategorinivå."
© 2019 Science X Network