Kredit:CC0 Public Domain
I en ny serie experiment, algoritmer för artificiell intelligens (A.I.) kunde påverka människors preferenser för fiktiva politiska kandidater eller potentiella romantiska partners, beroende på om rekommendationerna var explicita eller hemliga. Ujué Agudo och Helena Matute från Universidad de Deusto i Bilbao, Spanien, presentera dessa resultat i tidskriften med öppen tillgång PLOS ETT den 21 april, 2021.
Från Facebook till Googles sökresultat, många människor möter A.I. algoritmer varje dag. Privata företag bedriver omfattande efterforskningar om sina användares data, generera insikter om mänskligt beteende som inte är offentligt tillgängliga. Akademisk samhällsvetenskaplig forskning släpar efter privat forskning, och allmän kunskap om hur A.I. algoritmer som kan forma människors beslut saknas.
Att kasta nytt ljus, Agudo och Matute genomförde en serie experiment som testade påverkan av A.I. algoritmer i olika sammanhang. De rekryterade deltagare för att interagera med algoritmer som presenterade foton av fiktiva politiska kandidater eller online dating kandidater, och bad deltagarna att ange vem de skulle rösta på eller meddelande. Algoritmerna främjade vissa kandidater framför andra, antingen uttryckligen (t.ex. "90 % kompatibilitet") eller i hemlighet, genom att visa sina bilder oftare än andras.
Övergripande, experimenten visade att algoritmerna hade ett betydande inflytande på deltagarnas beslut om vem de skulle rösta på eller meddelande. För politiska beslut, explicit manipulation påverkade besluten avsevärt, medan hemlig manipulation inte var effektiv. Den motsatta effekten sågs för dejtingbeslut.
Forskarna spekulerar i att dessa resultat kan spegla människors preferenser för mänskliga explicita råd när det kommer till subjektiva frågor som dejting, medan folk kanske föredrar algoritmiska råd om rationella politiska beslut.
Mot bakgrund av deras upptäckter, författarna uttrycker stöd för initiativ som syftar till att öka A.I.s pålitlighet, såsom EU-kommissionens etiska riktlinjer för pålitlig AI och DARPA:s program för förklarande AI (XAI). Fortfarande, de varnar för att mer allmänt tillgänglig forskning behövs för att förstå mänsklig sårbarhet för algoritmer.
Under tiden, forskarna efterlyser insatser för att utbilda allmänheten om riskerna med blind tillit till rekommendationer från algoritmer. De lyfter också fram behovet av diskussioner kring ägande av data som driver dessa algoritmer.
Författarna tillägger:"Om en fiktiv och förenklad algoritm som vår kan uppnå en sådan nivå av övertalning utan att upprätta faktiskt anpassade profiler för deltagarna (och använda samma fotografier i alla fall), en mer sofistikerad algoritm som den som människor interagerar med i sina dagliga liv borde verkligen kunna utöva ett mycket starkare inflytande."