Kredit:Pixabay/CC0 Public Domain
Forskare från University of Kentucky, University of Technology Sydney och University of Illinois-Chicago publicerade en ny artikel i Journal of Marketing som undersöker kundernas svar och konsekvenserna av att använda AI-agenter kontra mänskliga agenter.
Studien, som kommer i Journal of Marketing, har titeln "Bad News? Send an AI. Good News? Send a Human" och är författad av Aaron Garvey, TaeWoo Kim, Adam Duhachek.
Är vi mer förlåtande mot en artificiell intelligens (AI) agent än en människa när vi blir svikna? Mindre uppskattande av en AI-bot än en människa när vi får hjälp? Ny forskning undersöker dessa frågor och upptäcker att konsumenter reagerar olika på gynnsam och ogynnsam behandling av en AI-agent jämfört med en annan människa.
Konsumenter och marknadschefer befinner sig för närvarande i en period av teknisk övergång där AI-agenter i allt högre grad ersätter mänskliga representanter. AI-agenter har använts över ett brett utbud av konsumentdomäner för att hantera kundtransaktioner, inklusive traditionell detaljhandel, resor, samåkning och delning av boende, och till och med juridiska och medicinska tjänster. Med tanke på AI-agenters avancerade informationsbehandlingskapacitet och arbetskostnadsfördelar förväntas övergången från mänskliga representanter för att administrera produkter och tjänster fortsätta. Men vad är konsekvenserna för kundrespons och nöjdhet?
Forskarna finner att när en produkt eller tjänst är sämre än förväntat svarar konsumenterna bättre när de har att göra med en AI-agent. Däremot, för ett erbjudande som är bättre än förväntat, reagerar konsumenter mer positivt på en mänsklig agent. Garvey förklarar att "Detta händer eftersom AI-agenter, jämfört med mänskliga agenter, uppfattas ha svagare personliga avsikter när de fattar beslut. Det vill säga, eftersom en AI-agent är en icke-mänsklig maskin, tror konsumenterna vanligtvis inte att en AI-agents beteende drivs av underliggande själviskhet eller vänlighet." Som ett resultat tror konsumenterna att AI-agenter saknar själviska avsikter (som vanligtvis skulle straffas) i fallet med ett ogynnsamt erbjudande och saknar välvilliga avsikter (som vanligtvis skulle belönas) i fallet med ett gynnsamt erbjudande.
Att designa en AI-agent för att se mer mänsklig ut kan förändra konsumenternas reaktion. Till exempel, en tjänsterobot som verkar mer mänsklig (t.ex. med mänsklig kroppsstruktur och ansiktsdrag) framkallar mer gynnsamma svar på ett bättre än väntat erbjudande än en mer maskinlik AI-agent utan mänskliga egenskaper. Detta beror på att AI-agenter som är mer mänskliga uppfattas ha starkare avsikter när de gör erbjudandet.
Vad betyder detta för marknadschefer? Kim säger, "För en marknadsförare som är på väg att leverera dåliga nyheter till en kund, kommer en AI-representant att förbättra kundens svar. Detta skulle vara det bästa tillvägagångssättet för negativa situationer som oväntat höga priserbjudanden, avbokningar, förseningar, negativa utvärderingar, statusändringar, produktdefekter, avslag, servicefel och lageruttag. Goda nyheter levereras dock bäst av en människa. Oväntade positiva resultat kan inkludera snabba leveranser, rabatter, uppgraderingar, servicepaket, exklusiva erbjudanden, lojalitetsbelöningar och kundkampanjer."
Chefer kan tillämpa våra resultat för att prioritera (mot att skjuta upp) rollövergångar från människa till AI i situationer där negativa (mot positiva) interaktioner är vanligare. Dessutom, även när en rollövergång inte helt överförs till en AI-agent, kan den selektiva rekryteringen av en AI-agent för att avslöja viss negativ information fortfarande vara fördelaktig. Företag som redan har övergått till konsumentinriktade AI-agenter, inklusive de många online- och mobilapplikationer som använder AI-baserade algoritmer för att skapa och administrera erbjudanden, kan också dra nytta av våra resultat. Vår forskning visar att AI-agenter selektivt bör fås att se mer eller mindre mänskliga ut beroende på situationen. För konsumenter avslöjar dessa fynd en "blind fläck" när de har att göra med AI-agenter, särskilt när man överväger erbjudanden som inte lever upp till förväntningarna. Faktum är att forskningen avslöjar ett etiskt dilemma kring användningen av AI-agenter – är det lämpligt att använda AI för att kringgå konsumenternas motstånd mot dåliga erbjudanden? "Vi hoppas att att göra konsumenter medvetna om detta fenomen kommer att förbättra deras beslutskvalitet när de har att göra med AI-agenter, samtidigt som vi ger marknadschefstekniker, som att göra AI mer mänsklig i vissa sammanhang, för att hantera detta dilemma", säger Duhachek.