Kredit:CC0 Public Domain
Forskare som studerar interaktion mellan människa och robot fokuserar ofta på att förstå mänskliga avsikter ur en robots perspektiv, så roboten lär sig att samarbeta med människor mer effektivt. Men interaktion mellan människa och robot är en dubbelriktad gata, och människan behöver också lära sig hur roboten beter sig.
Tack vare årtionden av kognitionsvetenskap och utbildningspsykologisk forskning har forskare ganska bra koll på hur människor lär sig nya begrepp. Så forskare vid MIT och Harvard University samarbetade för att tillämpa väletablerade teorier om inlärning av mänskliga begrepp på utmaningar i interaktion mellan människa och robot.
De undersökte tidigare studier som fokuserade på människor som försöker lära robotar nya beteenden. Forskarna identifierade möjligheter där dessa studier kunde ha införlivat element från två kompletterande kognitiva vetenskapsteorier i sina metoder. De använde exempel från dessa arbeten för att visa hur teorierna kan hjälpa människor att forma konceptuella modeller av robotar snabbare, mer exakt och flexibelt, vilket kan förbättra deras förståelse av en robots beteende.
Människor som bygger mer exakta mentala modeller av en robot är ofta bättre samarbetspartners, vilket är särskilt viktigt när människor och robotar arbetar tillsammans i höginsatssituationer som tillverkning och hälsovård, säger Serena Booth, doktorand i Interactive Robotics Group of the Interactive Robotics Group. Computer Science and Artificial Intelligence Laboratory (CSAIL), och huvudförfattare till artikeln.
"Oavsett om vi försöker hjälpa människor att bygga konceptuella modeller av robotar eller inte, kommer de att bygga dem ändå. Och de konceptuella modellerna kan vara fel. Detta kan sätta människor i allvarlig fara. Det är viktigt att vi använder allt vi kan för att ge den personen den bästa mentala modellen de kan bygga", säger Booth.
Booth och hennes rådgivare, Julie Shah, en MIT-professor i flygteknik och astronautik och chef för Interactive Robotics Group, var medförfattare till denna artikel i samarbete med forskare från Harvard. Elena Glassman '08, MNG '11, Ph.D. '16, en biträdande professor i datavetenskap vid Harvards John A. Paulson School of Engineering and Applied Sciences, med expertis inom teorier om lärande och människa-dator-interaktion, var den primära rådgivaren i projektet. Harvards medförfattare inkluderar också doktoranden Sanjana Sharma och forskningsassistenten Sarah Chung. Forskningen kommer att presenteras vid IEEE Conference on Human-Robot Interaction.
Ett teoretiskt tillvägagångssätt
Forskarna analyserade 35 forskningsartiklar om människa-robot undervisning med hjälp av två nyckelteorier. Den "analogiska överföringsteorin" föreslår att människor lär sig genom analogi. När en människa interagerar med en ny domän eller ett nytt koncept, letar de implicit efter något bekant de kan använda för att förstå den nya entiteten.
"Variationsteorin om lärande" hävdar att strategisk variation kan avslöja begrepp som kan vara svåra för en person att urskilja på annat sätt. Det tyder på att människor går igenom en process i fyra steg när de interagerar med ett nytt koncept:upprepning, kontrast, generalisering och variation.
Medan många forskningsartiklar inkluderade delar av en teori, berodde detta troligen på en slump, säger Booth. Hade forskarna konsulterat dessa teorier i början av sitt arbete, kanske de hade kunnat utforma mer effektiva experiment.
Till exempel, när man lär människor att interagera med en robot, visar forskare ofta människor många exempel på att roboten utför samma uppgift. Men för att människor ska kunna bygga en korrekt mental modell av den roboten, föreslår variationsteorin att de behöver se en rad exempel på roboten som utför uppgiften i olika miljöer, och de måste också se att den gör misstag.
"Det är väldigt sällsynt i litteraturen om interaktion mellan människa och robot eftersom det är kontraintuitivt, men folk måste också se negativa exempel för att förstå vad roboten inte är", säger Booth.
Dessa kognitiva vetenskapsteorier kan också förbättra fysisk robotdesign. Om en robotarm liknar en mänsklig arm men rör sig på sätt som skiljer sig från mänskliga rörelser, kommer människor att kämpa för att bygga korrekta mentala modeller av roboten, förklarar Booth. Som föreslås av analogisk överföringsteori, eftersom människor kartlägger det de vet – en mänsklig arm – till robotarmen, om rörelsen inte stämmer överens kan människor bli förvirrade och ha svårt att lära sig interagera med roboten.
Förbättrade förklaringar
Booth och hennes medarbetare studerade också hur teorier om inlärning av mänskliga begrepp kan förbättra förklaringarna som försöker hjälpa människor att bygga förtroende för okända, nya robotar.
"När det gäller förklaring har vi ett riktigt stort problem med bekräftelsebias. Det brukar inte finnas standarder kring vad en förklaring är och hur en person ska använda den. Som forskare utformar vi ofta en förklaringsmetod, den ser bra ut för oss, och vi skicka det", säger hon.
Istället föreslår de att forskare använder teorier från mänskligt begreppslärande för att tänka på hur människor kommer att använda förklaringar, som ofta genereras av robotar för att tydligt kommunicera policyn de använder för att fatta beslut. Genom att tillhandahålla en läroplan som hjälper användaren att förstå vad en förklaringsmetod innebär och när den ska användas, men också där den inte är tillämplig, kommer de att utveckla en starkare förståelse för en robots beteende, säger Booth.
Utifrån sin analys ger de ett antal rekommendationer om hur forskningen kring människa-robot-undervisning kan förbättras. För det första föreslår de att forskare införlivar analogisk överföringsteori genom att vägleda människor att göra lämpliga jämförelser när de lär sig att arbeta med en ny robot. Att ge vägledning kan säkerställa att människor använder passande analogier så att de inte blir förvånade eller förvirrade av robotens handlingar, säger Booth.
De föreslår också att att inkludera positiva och negativa exempel på robotbeteende och att utsätta användare för hur strategiska variationer av parametrar i en robots "policy" påverkar dess beteende, så småningom över strategiskt varierade miljöer, kan hjälpa människor att lära sig bättre och snabbare. Robotens policy är en matematisk funktion som tilldelar sannolikheter till varje åtgärd som roboten kan vidta.
"Vi har kört användarstudier i flera år, men vi har skjutit från höften när det gäller vår egen intuition så långt som vad som skulle eller inte skulle vara till hjälp för att visa människan. Nästa steg skulle vara att vara mer rigorös om att grunda detta arbete i teorier om mänsklig kognition," säger Glassman.
Nu när denna första litteraturgenomgång med hjälp av kognitiva vetenskapsteorier är klar planerar Booth att testa deras rekommendationer genom att bygga om några av de experiment hon studerade och se om teorierna faktiskt förbättrar mänskligt lärande.