Talal Rahwan, docent i datavetenskap vid NYU Abu Dhabi. Upphovsman:NYU Abu Dhabi
De senaste tekniska genombrotten inom artificiell intelligens har gjort det möjligt för maskiner, eller bots, att passera som människor. Ett team av forskare under ledning av Talal Rahwan, docent i datavetenskap vid NYU Abu Dhabi, genomförde ett experiment för att studera hur människor interagerar med robotar som de tror är mänskliga, och hur sådana interaktioner påverkas när bots avslöjar sin identitet. Forskarna fann att robotar är mer effektiva än människor vid vissa interaktioner mellan människor och maskiner, men bara om de får dölja sin icke-mänskliga natur.
I deras artikel med titeln "Behavioral Evidence for a Transparency-Efficiency Tradeoff in Human-Machine Cooperation" publicerad i Nature Machine Intelligence , forskarna presenterade sitt experiment där deltagarna ombads spela ett samarbetsspel med antingen en mänsklig medarbetare eller en botassociatör. Detta spel, kallade Iterated Prisoner's Dilemma, var utformad för att fånga upp situationer där var och en av de interagerande parterna kan antingen handla egoistiskt i ett försök att utnyttja den andra, eller agera kooperativt i ett försök att uppnå ett ömsesidigt fördelaktigt resultat.
Avgörande, forskarna gav några deltagare felaktig information om identiteten på deras medarbetare. Vissa deltagare som interagerade med en människa fick veta att de interagerade med en bot, och vice versa. Genom detta experiment, forskare kunde avgöra om människor är fördomsfulla mot arbetsmarknadens parter som de tror är bots, och bedöma i vilken utsträckning sådana fördomar om det finns, påverkar effektiviteten hos robotar som är transparenta om deras icke-mänskliga natur.
Resultaten visade att robotar som poserade som människor var mer effektiva på att förmå partnern att samarbeta i spelet. Dock, så snart deras sanna natur avslöjades, samarbetet sjönk och robotarnas överlägsenhet nekades.
"Även om det finns bred enighet om att maskiner ska vara transparenta om hur de fattar beslut, det är mindre tydligt om de ska vara transparenta om vilka de är, sa Rahwan.
"Överväga, till exempel, Google Duplex, en automatiserad röstassistent som kan generera mänskligt tal för att ringa telefonsamtal och boka tid för användarens räkning. Google Duplex tal är så realistiskt att personen på andra sidan telefonen kanske inte ens inser att de pratar med en bot. Är det etiskt att utveckla ett sådant system? Ska vi förbjuda robotar att passera som människor, och tvinga dem att vara transparenta om vilka de är? Om svaret är "Ja", då belyser våra resultat behovet av att sätta standarder för de effektivitetskostnader som vi är villiga att betala i utbyte mot sådan transparens. "