Kredit:CC0 Public Domain
Vi kan lyssna på fakta från Siri eller Alexa, eller vägbeskrivningar från Google Maps eller Waze, men skulle vi låta en virtuell agent aktiverad av artificiell intelligens hjälpa till att medla konflikter mellan teammedlemmar? En ny studie säger inte ännu.
Forskare från USC och University of Denver skapade en simulering där ett team på tre personer fick stöd av en virtuell agentavatar på skärmen i ett uppdrag som var utformat för att säkerställa misslyckande och framkalla konflikter. Studien utformades för att titta på virtuella agenter som potentiella medlare för att förbättra teamsamarbetet under konfliktmedling.
Bekänna för dem? Ja. Men i stundens hetta, kommer vi att lyssna på virtuella agenter?
Medan några av forskarna (Gale Lucas och Jonathan Gratch från USC Viterbi School Engineering och USC Institute for Creative Technologies som bidrog till denna studie), hade tidigare funnit att en-mot-en mänsklig interaktion med en virtuell agentterapeut gav fler bekännelser, i denna studie "Konfliktmedling i människa-maskin-teaming:Använda en virtuell agent för att stödja uppdragsplanering och debriefing, " Teammedlemmar var mindre benägna att engagera sig med en manlig virtuell agent vid namn "Chris" när konflikten uppstod.
Deltagande medlemmar av teamet kom inte fysiskt an mot enheten (som vi har sett människor attackera robotar i virala inlägg på sociala medier), utan snarare var mindre engagerade och mindre benägna att lyssna på den virtuella agentens input när ett misslyckande uppstod och konflikter uppstod mellan teammedlemmarna.
Studien genomfördes i en militärakademimiljö där 27 scenarier konstruerades för att testa hur teamet som inkluderade en virtuell agent skulle reagera på misslyckanden och den säkerställande konflikten. Den virtuella agenten ignorerades inte på något sätt. Studien fann att teamen reagerade socialt på den virtuella agenten under planeringen av uppdraget de tilldelades (nickar, ler och känner igen den virtuella agentens input genom att tacka den) men ju längre övningen fortskred, deras engagemang med den virtuella agenten minskade. Deltagarna skyllde inte helt på den virtuella agenten för deras misslyckande.
"Teamsammanhållning när man utför komplexa uppgifter tillsammans är en mycket komplex och viktig faktor, säger huvudförfattaren, Kerstin Haring, en biträdande professor i datavetenskap vid University of Denver.
"Våra resultat visar att virtuella agenter och potentiellt sociala robotar kan vara en bra konfliktförmedlare i alla typer av team. Det kommer att bli mycket intressant att ta reda på interventioner och sociala svar för att i slutändan sömlöst integrera virtuella agenter i mänskliga team för att få dem att prestera bättre ."
Studie medförfattare, Gale Lucas, Forskningsassistent professor i datavetenskap vid USC, och en forskare vid Institute for Creative Technologies, tillägger att viss feedback från studiedeltagare indikerar att de uppfattade virtuella agenter som neutrala och opartiska. Hon skulle vilja fortsätta arbetet med att se om virtuella agenter kan användas "för att hjälpa oss att fatta bättre beslut" och trycka på "vad som krävs för att vi ska lita på virtuella agenter."
Även om denna studie genomfördes i en militärakademi med speciella strukturer, forskarna hoppas kunna utveckla detta projekt för att förbättra teamprocesser i alla möjliga arbetsmiljöer.