• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Använda taktila sensorer och maskininlärning för att förbättra hur robotar manipulerar tyger

    1) Vi närmar oss först tyget och sedan 2) Försök att ta tag i ett antal tyglager. Med hjälp av taktil avkänning avgör vi om vi tar tag i rätt antal lager och sedan 3) justerar vi tyget efter behov. Slutligen lyfter vi 4) duken med rätt antal lager greppat. Kredit:Tirumala et al.

    Under de senaste åren har robotiker försökt förbättra hur robotar interagerar med olika objekt som finns i verkliga miljöer. Även om några av deras ansträngningar gav lovande resultat, släpar manipulationsförmågan hos de flesta befintliga robotsystem fortfarande efter människors.

    Tyger är bland de typer av föremål som har visat sig vara mest utmanande för roboten att interagera med. De främsta anledningarna till detta är att tygbitar och andra tyger kan sträckas, flyttas och vikas på olika sätt, vilket kan resultera i komplex materialdynamik och självocklusioner.

    Forskare vid Carnegie Mellon Universitys Robotics Institute har nyligen föreslagit en ny beräkningsteknik som kan göra det möjligt för robotar att bättre förstå och hantera tyger. Den här tekniken, som introducerades i ett papper som ska presenteras vid den internationella konferensen om intelligenta robotar och system och förpubliceras på arXiv, är baserad på användningen av en taktil sensor och en enkel maskininlärningsalgoritm, känd som en klassificerare.

    "Vi är intresserade av tygmanipulation eftersom tyger och deformerbara föremål i allmänhet är utmanande för robotar att manipulera, eftersom deras deformerbarhet gör att de kan konfigureras på så många olika sätt," Daniel Seita, en av forskarna som genomförde studien, berättade för TechXplore. "När vi började det här projektet visste vi att det på senare tid hade gjorts mycket arbete med robotar som manipulerade tyg, men det mesta av det arbetet innebär att manipulera en enda bit tyg. Vårt papper tar upp de relativt mindre utforskade riktningarna för att lära sig att manipulera en hög med tyg med taktil avkänning."

    De flesta befintliga tillvägagångssätt för att möjliggöra tygmanipulation i robotar är endast baserade på användningen av synsensorer, såsom kameror eller bildapparater som bara samlar in visuell data. Även om vissa av dessa metoder gav goda resultat, kan deras beroende av visuella sensorer begränsa deras tillämpbarhet för enkla uppgifter som involverar manipulering av ett enda tygstycke.

    Den nya metoden som utvecklats av Seita och hans kollegor Sashank Tirumala och Thomas Weng, å andra sidan, använder data som samlats in av en taktil sensor som heter ReSkin, som kan härleda information relaterad till ett materials textur och dess interaktion med miljön. Med hjälp av denna taktila data tränade teamet en klassificerare för att bestämma antalet lager av tyg som en robot griper.

    "Vår taktila data kom från ReSkin-sensorn, som nyligen utvecklades på CMU förra året," förklarade Weng. "Vi använder den här klassificeraren för att justera höjden på en gripare för att kunna greppa ett eller två översta tygskikt från en hög med tyger."

    För att utvärdera sin teknik genomförde teamet 180 experimentella försök i en verklig miljö, med hjälp av ett robotsystem bestående av en Franka-robotarm, en mini-Delta-gripare och en Reskin-sensor (integrerad på griparens "finger") för att förstå en eller två tygstycken i en hög. Deras tillvägagångssätt gav lovande resultat och överträffade baslinjemetoder som inte tar hänsyn till taktil feedback.

    "Jämfört med tidigare tillvägagångssätt som bara använder kameror, påverkas inte vårt taktila avkänningsbaserade tillvägagångssätt av mönster på tyget, förändringar i belysning och andra visuella avvikelser," sa Tirumala. "Vi var glada över att se att taktil avkänning från elektromagnetiska enheter som ReSkin-sensorn kan ge en tillräcklig signal för en finkornig manipulationsuppgift, som att greppa ett eller två tyglager. Vi tror att detta kommer att motivera framtida forskning inom taktil avkänning för tyg. manipulation av robotar."

    I framtiden hoppas Tirumala, Weng, Seita och deras kollegor att denna manipulationsmetod kan bidra till att förbättra kapaciteten hos robotar som är utformade för att användas i tygtillverkningsanläggningar, tvätttjänster eller i hemmen. Specifikt kan det förbättra förmågan hos dessa robotar att hantera komplexa textilier, flera tygstycken, tvätt, filtar, kläder och andra tygbaserade föremål.

    "Vår plan är att fortsätta att utforska användningen av taktil avkänning för att ta tag i ett godtyckligt antal tyglager, istället för ett eller två lager som vi fokuserade på i det här arbetet," tillade Weng. "Dessutom undersöker vi multimodala tillvägagångssätt som kombinerar både syn och taktil avkänning så att vi kan utnyttja fördelarna med båda sensormodaliteterna." + Utforska vidare

    Generera tvärmodal sensorisk data för robotisk visuell-taktil perception

    © 2022 Science X Network




    © Vetenskap https://sv.scienceaq.com