Forskare vid Carnegie Mellon University har visat att människor som spelar ett spel med en robot lider av prestanda när roboten kritiserar dem. Kredit:Carnegie Mellon University
Trash talking har en lång och färgstark historia av att irritera spelmotståndare, och nu har forskare vid Carnegie Mellon University visat att nedslående ord kan vara störande även när de uttalas av en robot.
Trash talken i studien var avgjort mild, med yttranden som "Jag måste säga att du är en fruktansvärd spelare, " och "Under spelets gång har ditt spelande blivit förvirrat." Trots det, människor som spelade ett spel med roboten – en kommersiellt tillgänglig humanoid robot känd som Pepper – presterade sämre när roboten avskräckte dem och bättre när roboten uppmuntrade dem.
Huvudförfattaren Aaron M. Roth sa att några av de 40 studiedeltagarna var tekniskt sofistikerade och förstod fullt ut att en maskin var källan till deras obehag.
"En deltagare sa, "Jag gillar inte vad roboten säger, men det är så det var programmerat så jag kan inte skylla på det, sa Roth, som genomförde studien medan han var masterstudent vid CMU Robotics Institute.
Men forskarna fann att övergripande, mänskliga prestationer ebbade ut oavsett teknisk sofistikering.
Studien, presenterades förra månaden vid IEEE International Conference on Robot &Human Interactive Communication (RO-MAN) i New Delhi, Indien, är en avvikelse från typiska interaktionsstudier mellan människa och robot, som tenderar att fokusera på hur människor och robotar bäst kan samarbeta.
"Detta är en av de första studierna av interaktion mellan människa och robot i en miljö där de inte samarbetar, " sa medförfattaren Fei Fang, en biträdande professor vid Institutet för mjukvaruforskning. Det har enorma konsekvenser för en värld där antalet robotar och internet of things (IoT)-enheter med artificiell intelligens förväntas växa exponentiellt. "Vi kan förvänta oss att hemassistenter är samarbetsvilliga, " Hon sa, "men i situationer som onlineshopping, de kanske inte har samma mål som vi har."
Studien var en utväxt av ett studentprojekt i AI-metoder för socialt gott, en kurs som Fang undervisar i. Eleverna ville utforska användningen av spelteori och avgränsad rationalitet i samband med robotar, så de designade en studie där människor skulle tävla mot en robot i ett spel som heter "Guards and Treasures". Ett så kallat Stackelberg-spel, forskare använder det för att studera rationalitet. Detta är ett typiskt spel som används för att studera interaktion mellan försvarare och angripare i forskning om säkerhetsspel, ett område där Fang har utfört ett omfattande arbete.
Varje deltagare spelade spelet 35 gånger med roboten, medan de antingen suger in uppmuntrande ord från roboten eller får sina öron sjungande med avvisande kommentarer. Även om de mänskliga spelarnas rationalitet förbättrades när antalet spelade spel ökade, de som kritiserades av roboten fick inte lika bra poäng som de som fick beröm.
Det är väl etablerat att en individs prestation påverkas av vad andra människor säger, men studien visar att människor också reagerar på vad maskiner säger, sa Afsaneh Doryab, en systemvetare vid CMU:s Human-Computer Interaction Institute (HCII) under studien och nu biträdande professor i Engineering Systems and Environment vid University of Virginia. Den här maskinens förmåga att ge svar kan få konsekvenser för automatiserad inlärning, mental hälsobehandling och till och med användning av robotar som följeslagare, Hon sa.
Framtida arbete kan fokusera på icke-verbala uttryck mellan robot och människor, sa Roth, nu doktorand. student vid University of Maryland. Fang föreslår att mer behöver läras om hur olika typer av maskiner—säg, en humanoid robot jämfört med en datorlåda – kan framkalla olika reaktioner hos människor.