Genom att övervaka hjärnans aktivitet, systemet kan upptäcka i realtid om en person upptäcker ett fel när en robot utför en uppgift. Kredit:MIT CSAIL
Att få robotar att göra saker är inte lätt:vanligtvis måste forskare antingen programmera dem explicit eller få dem att förstå hur människor kommunicerar via språk.
Men tänk om vi kunde styra robotar mer intuitivt, använder du bara handgester och hjärnvågor?
Ett nytt system som leds av forskare från MIT:s Computer Science and Artificial Intelligence Laboratory (CSAIL) syftar till att göra exakt det, gör det möjligt för användare att omedelbart korrigera robotmisstag med inget annat än hjärnsignaler och ett fingersvep.
Att bygga på teamets tidigare arbete fokuserat på enkla binära valaktiviteter, det nya verket utökar omfattningen till flervalsuppgifter, öppnar upp för nya möjligheter för hur mänskliga arbetare kan hantera team av robotar.
Genom att övervaka hjärnans aktivitet, systemet kan upptäcka i realtid om en person upptäcker ett fel när en robot utför en uppgift. Genom att använda ett gränssnitt som mäter muskelaktivitet, personen kan sedan göra handgester för att bläddra igenom och välja rätt alternativ för roboten att utföra.
Teamet demonstrerade systemet på en uppgift där en robot flyttar en borrmaskin till ett av tre möjliga mål på kroppen av ett skenplan. Viktigt, de visade att systemet fungerar på människor som det aldrig har sett förut, vilket innebär att organisationer kan distribuera det i verkliga miljöer utan att behöva träna det på användarna.
"Detta arbete som kombinerar EEG och EMG-feedback möjliggör naturliga interaktioner mellan människa och robot för en bredare uppsättning applikationer än vi har kunnat göra innan vi bara använder EEG-feedback, " säger CSAIL-chefen Daniela Rus, som övervakade arbetet. "Genom att inkludera muskelfeedback, vi kan använda gester för att styra roboten rumsligt, med mycket mer nyans och specificitet."
Ph.D. kandidat Joseph DelPreto var huvudförfattare på ett papper om projektet tillsammans med Rus, före detta CSAIL postdoktorand Andres F. Salazar-Gomez, före detta CSAIL-forskaren Stephanie Gil, forskaren Ramin M. Hasani, och professor vid Boston University Frank H. Guenther. Uppsatsen kommer att presenteras på konferensen Robotics:Science and Systems (RSS) som äger rum i Pittsburgh nästa vecka.
Intuitiv interaktion mellan människa och robot
I de flesta tidigare arbeten, system kunde i allmänhet bara känna igen hjärnsignaler när människor tränade sig själva att "tänka" på mycket specifika men godtyckliga sätt och när systemet tränades på sådana signaler. Till exempel, en mänsklig operatör kan behöva titta på olika ljusdisplayer som motsvarar olika robotuppgifter under ett träningspass.
Inte överraskande, sådana tillvägagångssätt är svåra för människor att hantera på ett tillförlitligt sätt, speciellt om de arbetar inom områden som konstruktion eller navigation som redan kräver intensiv koncentration.
Under tiden, Rus team utnyttjade kraften i hjärnsignaler som kallas "felrelaterade potentialer" (ErrPs), som forskare har funnit naturligt uppstå när människor upptäcker misstag. Om det finns ett ErrP, systemet stannar så att användaren kan korrigera det; om inte, det fortsätter.
"Det som är bra med det här tillvägagångssättet är att det inte finns något behov av att träna användarna att tänka på ett föreskrivet sätt, " säger DelPreto. "Maskinen anpassar sig efter dig, och inte tvärtom."
För projektet använde teamet "Baxter", en humanoid robot från Rethink Robotics. Med mänsklig övervakning, roboten gick från att välja rätt mål 70 procent av tiden till mer än 97 procent av tiden.
För att skapa systemet utnyttjade teamet kraften hos elektroencefalografi (EEG) för hjärnaktivitet och elektromyografi (EMG) för muskelaktivitet, sätta en serie elektroder på användarens hårbotten och underarm.
Båda måtten har några individuella brister:EEG-signaler är inte alltid tillförlitligt detekterbara, medan EMG-signaler ibland kan vara svåra att mappa till rörelser som är mer specifika än "flytta åt vänster eller höger". Slår ihop de två, dock, möjliggör mer robust biosensing och gör det möjligt för systemet att arbeta på nya användare utan utbildning.
"Genom att titta på både muskel- och hjärnsignaler, vi kan börja uppfatta en persons naturliga gester tillsammans med deras snabba beslut om huruvida något går fel, " säger DelPreto. "Detta hjälper till att göra kommunikation med en robot mer som att kommunicera med en annan person."
Teamet säger att de kunde tänka sig att systemet en dag skulle vara användbart för äldre, eller arbetstagare med språkstörningar eller begränsad rörlighet.
"Vi skulle vilja flytta bort från en värld där människor måste anpassa sig till maskinernas begränsningar, ", säger Rus. "Sådana tillvägagångssätt visar att det är mycket möjligt att utveckla robotsystem som är en mer naturlig och intuitiv förlängning av oss."