Kredit:CC0 Public Domain
På en onlinemarknad som Airbnb, värdprofiler kan betyda skillnaden mellan ett bokat och ett ledigt rum. För pigg, för länge, för många utropstecken? Språket är avgörande i en användares sökande efter tillit och autenticitet, avgörande faktorer i alla onlineutbyten.
Med så mycket på spel, ska Airbnb-värdar förlita sig på en algoritm för att skriva sina profiler åt dem?
Det beror på, enligt ny forskning från Cornell och Stanford University. Om alla använder algoritmiskt genererade profiler, användare litar på dem. Dock, om bara vissa värdar väljer att delegera skrivansvar till artificiell intelligens, de kommer sannolikt att bli misstrodda. Forskare betecknade detta som "replikanteffekten" - en nick till filmen "Blade Runner".
"Deltagarna letade efter ledtrådar som kändes mekaniska kontra språk som kändes mer mänskligt och känslomässigt, sade Maurice Jakesch, en doktorand i informationsvetenskap vid Cornell Tech och huvudförfattare till "AI-Mediated Communication:How the Perception that Profile Text was Written by AI Affects Trustworthiness, "som kommer att presenteras på ACM-konferensen om mänskliga faktorer i datorsystem, 4-9 maj i Glasgow, Skottland.
"De hade sina egna teorier om hur en AI-genererad profil skulle se ut, " sa Jakesch. "Om det fanns allvarliga stavfel i en profil, de skulle säga att det är mer mänskligt, medan om någons profil såg osammanhängande eller meningslös ut, de antog att det var AI."
AI kommer att revolutionera naturliga språkteknologier och hur människor interagerar med varandra. Människor upplever en del AI-medierad kommunikation redan:Gmail skannar innehållet i våra kommande mejl och genererar förslag, ett klick "smarta svar, " och en ny generation av skrivhjälpmedel fixar inte bara våra stavfel utan polerar också vår skrivstil.
"Vi börjar se de första fallen av artificiell intelligens som fungerar som en medlare mellan människor, men det är en fråga om:'Vill folk ha det?'", sa Jakesch. "Vi kan hamna i en situation där AI-medierad kommunikation är så utbredd att det blir en del av hur människor utvärderar vad de ser online."
I studien, forskare försökte undersöka om användare litar på algoritmiskt optimerade eller genererade representationer, särskilt på onlinemarknadsplatser. Teamet genomförde tre experiment, värva hundratals deltagare på Amazon Mechanical Turk för att utvärdera verkliga, mänskligt genererade Airbnb-profiler. I vissa fall, deltagare förleddes att tro att några eller alla profilerna genererades genom ett automatiserat AI-system. Deltagarna ombads sedan ge varje profil ett trovärdighetspoäng.
När de fick veta att de visade antingen alla mänskligt genererade eller alla AI-genererade profiler, deltagarna verkade inte lita på den ena mer än den andra. De betygsatte de mänskliga och AI-genererade profilerna ungefär likadant.
Men det ändrades när deltagarna informerades om att de tittade på en blandad uppsättning profiler. Återstår att bestämma om profilerna de läste var skrivna av en människa eller en algoritm, användare misstrodde de som de trodde var maskingenererade.
"Ju fler deltagare trodde att en profil var AI-genererad, ju mindre de tenderade att lita på värden, även om profilerna de betygsatt skrevs av de faktiska värdarna, " skrev författarna.
Vad är det som är så dåligt med att använda AI-medierad kommunikation? Som en studiedeltagare uttryckte det, AI-genererade profiler "kan vara praktiska men också lite lata. Vilket får mig att ifrågasätta vad mer de kommer att vara lata om."
När AI blir mer vanligt och kraftfullt, grundläggande riktlinjer, etik och praktik blir avgörande, sa forskarna. Deras resultat tyder på att det finns sätt att designa AI-kommunikationsverktyg som förbättrar förtroendet för mänskliga användare. Till att börja, Jakesch sa, företag kan lägga till ett emblem på all text som produceras av AI, som vissa medier redan använder på algoritmskapat innehåll. Design och policyriktlinjer och normer för användning av AI-medierad kommunikation är värda att utforska nu, han lade till.
"Värdet av dessa teknologier kommer att bero på hur de är utformade, hur de kommuniceras till människor och om vi kan etablera ett hälsosamt ekosystem runt dem, ", sa han. "Det kommer med en rad nya etiska frågor:Är det acceptabelt att min algoritmassistent skapar en mer vältalig version av mig? Är det okej att en algoritm säger godnatt för mina barn för mina räkningar? Det här är frågor som måste diskuteras. "
Tidningen skrevs tillsammans med Mor Naaman, docent i informationsvetenskap vid Jacobs Technion-Cornell Institute vid Cornell Tech; Xiao Ma, en doktorand i informationsvetenskap vid Cornell Tech; och Megan French och Jeffrey T. Hancock från Stanford.