Algoritmer hjälper människor att se och korrigera sina fördomar, visar studie
Algoritmer är en stapelvara i det moderna livet. Människor förlitar sig på algoritmiska rekommendationer för att vada genom djupa kataloger och hitta de bästa filmerna, rutterna, informationen, produkterna, människorna och investeringarna. Eftersom människor tränar algoritmer på sina beslut – till exempel algoritmer som ger rekommendationer om e-handel och sociala medier – lär sig algoritmer och kodar mänskliga fördomar.
Algoritmiska rekommendationer uppvisar partiskhet mot populära val och information som väcker upprördhet, till exempel partiska nyheter. På en samhällelig nivå vidmakthåller och förstärker algoritmiska fördomar strukturell rasfördom i rättssystemet, könsfördom hos de personer som företag anställer och ojämlikhet i rikedom i stadsutveckling.
Algoritmisk bias kan också användas för att minska mänsklig bias. Algoritmer kan avslöja dolda strukturella fördomar i organisationer. I en artikel publicerad i Proceedings of the National Academy of Science , fann mina kollegor och jag att algoritmisk fördom kan hjälpa människor att bättre känna igen och korrigera fördomar i sig själva.
Slutningen i spegeln
I nio experiment fick Begum Celikitutan, Romain Cadario och jag forskningsdeltagare att betygsätta Uber-förare eller Airbnb-listor på deras körförmåga, pålitlighet eller sannolikheten att de skulle hyra annonsen. Vi gav deltagarna relevant information, som antalet resor de hade kört, en beskrivning av fastigheten eller ett stjärnbetyg. Vi inkluderade också en irrelevant fördomsfull information:ett fotografi avslöjade förares ålder, kön och attraktivitet, eller ett namn som antydde att listvärdarna var vita eller svarta.
Efter att deltagarna gjort sina betyg visade vi dem en av två betygssammanfattningar:en som visar deras egna betyg eller en som visar betygen för en algoritm som tränats på deras betyg. Vi berättade för deltagarna om fördomsfunktionen som kan ha påverkat dessa betyg; till exempel att Airbnb-gäster är mindre benägna att hyra av värdar med distinkt afroamerikanska namn. Vi bad dem sedan bedöma hur mycket inflytande partiskheten hade på betygen i sammanfattningarna.
Oavsett om deltagarna bedömde det negativa inflytandet av ras, ålder, kön eller attraktionskraft, såg de mer partiskhet i betyg gjorda av algoritmer än de själva. Denna algoritmiska spegeleffekt avgjorde om deltagarna bedömde betygen av riktiga algoritmer eller om vi visade deltagarna deras egna betyg och bedrägligt berättade för dem att en algoritm gjorde dessa betyg.