Kredit:Michigan State University
Stressad? Behöver prata? Att vända sig till en chatbot för känslomässigt stöd kan hjälpa.
ComArtSci docent i kommunikation Jingbo Meng ville se hur effektiva chatbotar med artificiell intelligens (AI) kan vara för att leverera stödjande meddelanden. Så hon startade forskningen och använde en utvecklingsplattform för chatbot för att testa den.
"Chatbots har använts i stor utsträckning inom kundtjänst genom text- eller röstbaserad kommunikation", sa hon. "Det är en naturlig förlängning att tänka på hur AI-chatbotar kan spela en roll för att ge empati efter att ha lyssnat på någons berättelser och bekymmer."
Chatta upp det
I början av 2019 började Meng utvärdera effektiviteten hos empatiska chatbots genom att jämföra dem med mänsklig chatt. Hon hade följt framväxten av digitala appar för sjukvård och friskvård och såg den fenomenala tillväxten av appar med anknytning till mental hälsa. Hennes tidigare samarbete med MSU ingenjörskollegor fokuserade på ett bärbart mobilsystem för att känna av, spåra och fråga användare om beteendemarkörer för stress och depression. Samarbetet inspirerade henne att använda chatbots som initierar samtal med användare när beteendemarkörerna identifieras.
"Vi kände att vissa chatbot-kommunikationer kunde fungera, andra kanske inte," sa Meng. "Jag ville göra mer forskning för att förstå varför så att vi kan utveckla mer effektiva budskap att använda i appar för mental hälsa."
Meng rekryterade 278 MSU-studenter för sin studie och bad dem att identifiera viktiga stressfaktorer som de hade upplevt den senaste månaden. Deltagarna kopplades sedan ihop via Facebook Messenger med en empatisk chattpartner. En grupp fick höra att de skulle prata med en chatbot, en annan förstod att de skulle prata med en människa. Rynkan? Meng konfigurerade det så att bara chatbots levererade frågor och meddelanden, vilket gjorde att hon kunde mäta om deltagarna reagerade annorlunda när de trodde att deras chattpartner var mänsklig.
Meng varierade också nivån på ömsesidigt självutlämnande som deltagarna skulle uppleva under sina 20-minuterssessioner. Vissa chatbots delade med sig av sina egna erfarenheter som ett sätt att framkalla empati. Andra chatbotar förklarade helt enkelt sina egna personliga problem på bekostnad av att de inte validerade deltagarna."
Med undantag för de olika scenarierna för ömsesidig självutlämnande, skrevs innehållet och flödet av konversationer exakt likadant för chatbotar och för de uppfattade mänskliga chattpartnerna. Chatbots bad deltagarna att identifiera stressfaktorer. De frågade hur deltagarna mådde. De undersökte varför deltagarna trodde att stressfaktorer fick dem att känna på vissa sätt. Sedan delade chatbots med sig av sina egna erfarenheter.
"De var programmerade att validera och hjälpa deltagarna att ta sig igenom stressiga situationer", sa hon. "Vårt mål var att se hur effektiva meddelandena kunde vara."
Var försiktig
Meng upptäckte att oavsett om han pratade med en chatbot eller en människa, måste en deltagare känna att partnern är stödjande eller omtänksam. Om det villkoret är uppfyllt, är samtalet framgångsrikt för att minska stress.
Hennes studie avslöjade också att oavsett meddelandet, kände deltagarna att människor var mer omtänksamma och stödjande än en chatbot.
Hennes scenarier om ömsesidigt självutlämnande berättade en annan historia. Mänskliga partners som avslöjade sig själv – oavsett om deras avsikt var att vara empatiska eller att bara utveckla sina egna problem – bidrog till att minska stressen. Men chatbotar som avslöjade sig själv utan att erbjuda känslomässigt stöd gjorde inte mycket för att minska en deltagares stress – ännu mindre än chatbotar som inte sa någonting alls.
"Människor är helt enkelt mer relaterbara," sa Meng. "När vi pratar med en annan människa, även när de inte validerar våra känslor, kan vi relatera mer naturligt. Chatbots måste dock vara mer explicita och skicka meddelanden av högre kvalitet. Annars kan självutlämnande vara irriterande och avstängt. -sätta."
Uppfatta källan
Meng genomförde och analyserade forskning med Yue (Nancy) Dai, en alumn 2018 från MSU:s doktorandprogram för kommunikation och professor vid City University of Hong Kong. Deras resultat publicerades i Journal of Computer-Mediated Communication.
Meng sa att studien understryker att chatbots som används i appar för mental hälsa fungerar bäst när de uppfattas som en verkligt omtänksam källa. Hon planerar att följa upp studien med ytterligare forskning som undersöker hur meddelanden kan utformas för att öka den omtänksamma faktorn.
Appar för psykisk hälsa, sa hon, försvinner inte, och de ökar faktiskt i användning och tillgänglighet. Medan majoriteten av människor har tillgång till en mobiltelefon, har många inte direkt tillgång till en terapeut eller sjukförsäkring. Appar, sa hon, kan hjälpa individer att hantera särskilda situationer och kan ge riktmärken för ytterligare stödjande vård.
"På inget sätt kommer dessa appar och chatbots att ersätta en människa", sa hon. "Vi tror att hybridmodellen av AI-chatbotar och en mänsklig terapeut kommer att vara mycket lovande."