Kredit:CC0 Public Domain
Psykologiprofessor Michelle Drouin ville veta hur människor skulle reagera om en chatbot kunde efterlikna en människa.
Så hon och hennes forskarkollegor delade upp 350 studenter i tre grupper. En grupp fick höra att de skulle interagera med en bot. En annan fick höra att det var en riktig person. Och den sista informerades först efter interaktionen som de hade kommunicerat med en algoritm.
De två första grupperna var nästan lika nöjda med upplevelsen. Men den sista gruppen var det inte.
"De kände en kuslighet över det, " sa Drouin från Purdue University Fort Wayne. "De trodde att de blev lurade."
Det är en reaktion som Silicon Valley-företag kanske vill uppmärksamma när de fortsätter att tänja på gränserna för artificiell intelligens för att skapa allt mer realistiska virtuella assistenter.
På tisdag, Google presenterade en assistent som kan ringa samtal för att boka möten samtidigt som han talar med en nästan felfri mänsklig röst fylld av "ums" och "ahs". Inte vid något tillfälle under presentationen avslöjade Googles programvara att den inte är mänsklig – vilket utlöste en debatt om etik och samtycke.
På torsdag, Google vände kursen genom att uttryckligen säga att tjänsten, känd som Google Duplex, skulle innehålla ett avslöjande om att det inte är en person.
"Vi förstår och värdesätter diskussionen kring Google Duplex – som vi har sagt från början, transparens i tekniken är viktigt, " sa en talesperson för företaget. "Vi designar den här funktionen med inbyggd information, och vi kommer att se till att systemet är korrekt identifierat."
Oron för att människor skulle bli lurade av Googles nya funktion understryker att det är brådskande för samhället att bestämma vilken typ av relation det vill ha med sina konstgjorda hjälpmedel när teknikföretagen närmar sig att korsa den så kallade kusliga dalen. Det är en term som används för att beskriva klyftan mellan en robot eller programvara som har precis tillräckligt med brister för att väcka skepsis och en annan som inte går att skilja från en människa.
Kommer vi att kräva att få veta när vi pratar med en bot? Eller kommer vi att acceptera att vi kommer att sluta omedvetet samtala med algoritmer? Kommer vi att skänka dem samma vänlighet och empati som vi kräver av varandra? Eller ser vi dem bara som verktyg, ovärdig de värderingar som binder samman civilsamhället? Detta är frågor etiker, utvecklare och designers förbryllar. Hur vi reagerar kan få långtgående konsekvenser för hur människor i slutändan behandlar varandra.
"Det kommer att förändra oss, sa Pamela Pavliscak, professor vid Pratt Institute och grundare av Change Sciences, en konsultfirma som specialiserat sig på den känslomässiga kopplingen människor har med teknik. "Vi designar teknik och teknik, i tur och ordning, designar oss. Det skulle vara ganska naivt att tro att vi förblir desamma."
Med hjälp av ett par inspelade telefonsamtal, Googles vd Sundar Pichai visade denna vecka för deltagarna på företagets utvecklarkonferens hur dess virtuella assistent kunde ringa och boka ett hårmöte och försöka boka bord på en restaurang.
"Mm-hmm, " säger ersatzassistenten med naturlig kvinnlig röst när den salongsanställde uppmanas att vänta en stund.
Assistenten förhandlar sedan fram alternativa tider för mötet, kasta in ett "um" för gott skull. Det finns inget som tyder på att salongsarbetaren har någon aning om att rösten i andra änden är datorgenererad.
Detsamma gäller för en restaurangarbetare som talar med en manlig virtuell assistent, som använder talspråk som "Åh, I gotcha" för att uttrycka förståelse.
Googles vilja att avslöja att Duplex inte är en riktig person kan pressa andra företag att göra detsamma. Men amerikaner – som redan är vana vid robosamtal och automatiserade samtalsmenyer – kan en dag ändå finna sig själva att fråga om rösten i andra änden är verklig.
Pichai sa att tjänsten kan vara en välsignelse för företag genom att radera ytterligare en barriär för kunder, som kanske inte har tid att ringa sådana samtal. Det hela passar fint in i företagets nya slagord, "Få Google att göra det, "som uppmanar konsumenter att utnyttja assistenten från sina telefoner, smarta högtalare, bilar, TV-apparater och bärbara datorer.
att ingen glömmer, ju mindre uppgifter folk lägger ut på Google, desto mer vet företaget om sina vanor. Det tjänar två syften:Det tillåter Google att ge konsumenterna bättre sökresultat, och det gör det möjligt för annonsörer att rikta in sig på målgrupper mer exakt. Och genom att få en virtuell assistent att låta verklig, användare sänker sina skydd, ger Google ännu mer värdefull data.
Det i sig besvärar integritetsförespråkarna. Kommer en autentiskt klingande assistent att invagga användare till att avslöja sina mest privata detaljer för ett företag som samlade 95 miljarder dollar i reklamintäkter förra året? Vad händer om assistenten ringer en läkare? Känner Google nu till någons hälsohistoria?
Det är något Google kommer att behöva ta itu med med tanke på dagens ökade oro för integritet efter Facebooks Cambridge Analytica-skandal. Men etiker säger att de större problemen är de oavsiktliga konsekvenserna av en värld som alltmer översvämmas av bots och automatiserade tjänster i stället för äkta mänsklig interaktion.
"Anledningen till att detta kan gå åt sidan är för att mänsklig kommunikation och relationer bygger på ömsesidighet, sa David Ryan Polgar, en tekniketiker. "Tänk om jag ägnar tid åt att tänka på någon och skriva till dem men den andra personen inte gör det? De anstränger sig inte på samma sätt men de vill ändå ha fördelen av en fördjupad relation."
Som ett resultat, han sa, kommunikationen blir billigare.
"Det blir transaktionsmässigt, bara om orden och inte meningen, sa Polgar, som tycker att Google och andra AI-utvecklare har ett etiskt ansvar att avslöja att deras assistenter inte är mänskliga.
Dennis Mortensen, verkställande direktör och grundare av AI virtuellt assistentföretag x.ai, sa att han fruktar att folk så småningom kommer att avgöra att det är ett slöseri med tid att vara snälla mot varandra om en ökande mängd interaktion automatiseras. Men han har hopp om att det inte går.
"Du kan konstruera bra beteende, " said Mortensen. He cited Google's announcement this week that it will add a feature to its virtual assistant that encourages children to say "please" and "thank you." Amazon has a similar program for its assistant.
Mortensen, whose company solely helps users schedule meetings, said he's also seen polite responses to his virtual assistants, Amy and Andrew. Of the hundreds of thousands of meetings x.ai schedules each month, about 11 percent of users reply to the assistants just to express gratitude—even though Mortensen discloses that the service is AI.
Drouin, the psychology professor at Purdue University Fort Wayne, believes people are willing to accept algorithmic relationships if they are upfront. She says AI has unfairly gotten a bad rap from popular culture. She thinks the technology can eventually succeed in places humans can't, like delivering comfort to people suffering from alienation and loneliness.
"There's a lot of people who don't have rich and plentiful human relationships, " she said. "What options do they have? If we can advance AI we can fill a need for these people. The movement toward more human-like forms is allowing people to feel more connected."
©2018 Los Angeles Times
Distribueras av Tribune Content Agency, LLC.