Kredit:CC0 Public Domain
När robotar gör misstag – och det gör de då och då – beror återupprättandet av förtroendet med mänskliga medarbetare på hur maskinerna klarar av felen och hur mänskliga de ser ut, enligt forskning vid University of Michigan.
I en studie som undersökte flera förtroendereparationsstrategier – ursäkter, förnekelser, förklaringar eller löften – fann forskarna att vissa tillvägagångssätt riktade mot mänskliga medarbetare är bättre än andra och ofta påverkas av hur robotarna ser ut.
"Robotar är definitivt en teknik, men deras interaktioner med människor är sociala och vi måste ta hänsyn till dessa sociala interaktioner om vi hoppas att människor ska kunna lita på och lita på sina robotarbetare", säger Lionel Robert, docent vid UM School of Information.
"Robotar kommer att göra misstag när de arbetar med människor, vilket minskar människors förtroende för dem. Därför måste vi utveckla sätt att reparera förtroende mellan människor och robotar. Specifika förtroendereparationsstrategier är effektivare än andra och deras effektivitet kan bero på hur mänsklig roboten är. visas."
För deras studie publicerad i Proceedings of 30th IEEE International Conference on Robot and Human Interactive Communication , Robert och doktoranden Connor Esterwood undersökte hur reparationsstrategierna – inklusive en ny strategi för förklaringar – påverkar de element som driver förtroende:förmåga (kompetens), integritet (ärlighet) och välvilja (omtanke om förtroendet).
Forskarna rekryterade 164 deltagare för att arbeta med en robot i en virtuell miljö och lasta lådor på ett löpande band. Människan var kvalitetssäkringspersonen som arbetade tillsammans med en robot med uppgift att läsa serienummer och ladda 10 specifika lådor. En robot var antropomorf eller mer mänsklig, den andra mer mekanisk till utseendet.
Robotarna programmerades för att avsiktligt plocka upp några fel lådor och göra ett av följande påståenden om förtroendereparation:"Jag är ledsen att jag fick fel låda" (ursäkt), "Jag valde rätt låda så något annat måste ha försvunnit fel" (förnekelse), "Jag ser att det var fel serienummer" (förklaring), eller "Jag ska göra bättre ifrån mig nästa gång och få rätt ruta" (löfte).
Tidigare studier har undersökt ursäkter, förnekelser och löften som faktorer för förtroende eller trovärdighet, men detta är den första som ser på förklaringar som en reparationsstrategi, och den hade störst inverkan på integriteten, oavsett robotens utseende.
När roboten var mer mänsklig var förtroendet ännu lättare att återställa för integritet när förklaringar gavs och för välvilja när ursäkter, förnekelser och förklaringar erbjöds.
Liksom i den tidigare forskningen gav ursäkter från robotar högre integritet och välvilja än förnekelser. Löften överträffade ursäkter och förnekelser när det gällde åtgärder för välvilja och integritet.
Esterwood sa att den här studien pågår med mer forskning framöver som involverar andra kombinationer av förtroendereparationer i olika sammanhang, med andra kränkningar.
"Genom att göra detta kan vi utöka denna forskning ytterligare och undersöka mer realistiska scenarier som man kan se i vardagen," sa Esterwood. "Till exempel, litar en baristarobots förklaring av vad som gick fel och ett löfte om att göra det bättre i framtiden reparationer mer eller mindre än en byggrobot?"