Kredit:CC0 Public Domain
Tro det eller ej, fler och fler låneföretag vänder sig till interaktion mellan människa och robot för att hjälpa till med investeringsrådgivning. Men hur reagerar människor och vad blir resultatet av ett investeringsbeslut när robotar använder algoritmer för att komma med förslag? Ny forskning i tidskriften INFORMS Informationssystemforskning finner att investerare som skulle kunna dra mest nytta av robo-rådgivare (RA) inte använder dem. Och de som ändrar sig för snabbt för att se en återgång.
Artikeln, "Människ-robotinteraktion:När investerare anpassar användningen av robo-rådgivare i peer-to-peer-utlåning, " leddes av Zhiqiang (Eric) Zheng från University of Texas i Dallas, Ruyi Ge från Shanghai Business School, och Xuan Tian och Li Liao från Tsinghua University, Peking.
"Våra analyser visar att något överraskande, investerare som behöver mer hjälp från RA – det vill säga, de som stött på fler fallissemang i sina manuella investeringar – är mindre benägna att använda sådana tjänster, säger Zheng, en Ashbel Smith professor och professor i informationssystem vid Jindal School of Management vid UT Dallas. "Investerare tenderar att justera sin användning av tjänsten som reaktion på senaste RA-prestanda. intressant, dessa mänskliga-i-slingan-interferenser leder ofta till sämre prestanda."
Forskarna tittade på interaktionen människa-robot mellan finansiella rådgivningstjänster i peer-to-peer-utlåning (P2P). Många crowdfunding-plattformar har börjat använda robo-rådgivare för att hjälpa långivare att förstärka sin intelligens i P2P-låneinvesteringar. Detta arbete analyserade data från ett av de ledande P2P-företagen och undersökte hur investerare använder robo-rådgivare, och hur den mänskliga anpassningen av användningen av robo-rådgivare påverkar investeringsresultatet.
"Våra resultat visar att användare upplever fler förluster på grund av att de är för reaktiva mot den senaste tidens RA-prestanda. Detta presenterar ett nytt men negativt användningsfall för synergi mellan människa och artificiell intelligens (AI), där det kan vara kontraproduktivt att överlåta för mycket kontroll till människor över när en RA ska användas, " fortsätter Zheng. "Detta resultat återspeglar investerares möjliga missförstånd och missbruk av RA. De kanske inte alltid har ordentlig kunskap om RA-system och kan ingripa kontraproduktivt."
Zheng noterar att RA-system måste erbjuda mer transparens i sina tjänster och att ett väldesignat intelligent system bör förutse möjliga användarbeteenden och ta hänsyn till sådana mänskliga faktorer i dess systemdesign.
"Det är särskilt viktigt att veta när det är fördelaktigt att inkludera människor i slingan av ett systems implementering. Alla dessa implikationer kräver en tydlig förståelse för hur användare kan ta till sig och reagera på systemen, " han lägger till.