Kredit:Pixabay/CC0 Public Domain
När vi möter ett okänt ansikte tenderar vi att göra snabba bedömningar. Ser personen smart, attraktiv eller ung ut? Är de pålitliga eller korrupta? Neurovetenskapsmän och psykologer studerar hur våra hjärnor bildar dessa ansiktsfördomar och hur domarna i slutändan påverkar hur människor beter sig.
"Vi tenderar att vara ganska säkra på de bedömningar vi gör baserat på människors ansikten, men vi har ofta fel", säger Ralph Adolphs (Ph.D. '93), Bren professor i psykologi, neurovetenskap och biologi och en ansluten fakultet medlem av Tianqiao och Chrissy Chen Institute for Neuroscience.
Tidigare studier har kopplat dessa stereotyper och bedömningar till de beslut som människor fattar i olika aspekter av samhället, inklusive val, anställningsmetoder och domstolsdomar av juryer. Till exempel visade en Caltech-studie från Adolphs och Mike Alvarez, professor i statsvetenskap, att folk bedömde politiker som mer korrupta om de hade bredare ansikten, och att i det här fallet sammanföll dessa domar med om politikerna hade dömts för korruption i verkliga livet.
"Mycket viktiga sociala beslut påverkas av de snabba bedömningar som vi gör om människor från deras ansikten", säger Adolphs. "Genom att påpeka dessa fördomar hoppas vi att vi kan minska deras inverkan."
I en nyligen genomförd studie i tidskriften Nature Communications , Adolphs och hans team, ledda av den tidigare Caltech-studenten Chujun Lin, nu postdoktor vid Dartmouth College, tittade på hur ansiktsfördomar kan delas upp i primära bedömningar. På samma sätt som de mångfacetterade färgerna i en målning kan härledas från primärfärgerna rött, gult och blått, blandar våra hjärnor primära bedömningar för att skapa en rad uppfattningar om allt från hur snäll en person är till deras nivåer av aggression.
Resultaten visade att studiedeltagarna, som inkluderade människor från sju olika regioner runt om i världen, automatiskt gjorde fyra primära bedömningar när de mötte ett nytt ansikte (oavsett om bedömningarna var korrekta eller inte):de bedömde om en person är varm eller kall , kompetent eller inkompetent, feminin eller maskulin, och ung eller gammal. Alla andra bedömningar som människor kan göra kan härledas från en blandning av dessa fyra primära bedömningar.
"Dessa fyra primära bedömningar ligger till grund för de fördomar vi har när vi bildar ett brett spektrum av intryck av andra baserat på ansikten, som effektivt skulle kunna inriktas på anti-bias interventioner," förklarar Lin.
Utmaningar för att studera partiskhet
Adolphs noterar att det finns gränser för just denna studie och många andra gillar den. Här använde forskarna befintliga databaser, som till stor del består av vita ansikten med neutrala uttryck.
"De flesta av databaserna för dessa typer av studier konstruerades för år sedan, och till och med för årtionden sedan", säger Adolphs. "Det finns vanligtvis bilder på människor som är lättillgängliga för utredarna, men bilderna representerar verkligen inte världens befolkning."
För sin första analys valde Adolphs och hans team att begränsa stimulansen till vita ansikten med neutrala uttryck eftersom detta gjorde det möjligt för dem att utesluta andra faktorer som sammanhang och ras. Teamet arbetar med ett uppföljningsprojekt som tar in fler olika ansikten, inklusive ansikten från olika raser som uppvisar ett bredare utbud av uttryck.
"Att representera mångfalden hos en allmän befolkning i världen är en stor utmaning inom vårt område", säger Adolphs.
En framträdande studie från University of British Columbia om frågan, säger Adolphs, introducerade en term som kallas WEIRD, för västerländska, utbildade, industrialiserade, rika och demokratiska samhällen. WEIRD hänvisar till populationer av människor som vanligtvis studeras inom psykologi och samhällsvetenskap. Som artikeln påpekar är "den här särskilt tunna och ganska ovanliga delen av mänskligheten" en av de "minst representativa populationer man kunde hitta för att generalisera om människor."
"För många av våra studier rekryterar vi inte studenter av denna anledning", säger Adolphs. "De är bekväma, men de är naturligtvis inte en representativ demografisk del av världens befolkning. Ofta försöker vi rekrytera människor från samhället som är mer mångfaldiga."
Framtiden:Bias in AI
I en annan färsk studie från Adolphs grupp, ledd av Caltech postdoc Umit Keles och publicerad i tidskriften Affective Science , the researchers looked at the question of whether artificial intelligence (AI) methods can be trained to predict how individuals will react to people's faces. They found machine-based methods could make surprisingly accurate predictions, but sometimes came up with wrong answers.
"A round face might look baby faced and kind, but also corrupt, depending on the details. Because the features in faces are so closely related to one another, you can get many kinds of misjudgments from these algorithms," says Keles. "There is a worrisome potential for misuse of these AI methods."
This past summer, a Summer Undergraduate Research Fellowship (SURF) student in Adolphs' lab, Leena Mathur, worked on a project that examined how AI models might be trained to perceive human emotions across cultures. She used videos of people talking to each other from a database created by researchers at Imperial College London. The database includes people from six cultures:British, Chinese, German, Greek, Hungarian, and Serbian. The preliminary findings suggest AI models can be trained on videos of people communicating in one cultural context and subsequently adapted to detect emotions from videos of people communicating in other cultural contexts.
"There is a field-wide effort to collect more diverse data for AI research," she says. "The goal is to ultimately develop AI systems that are inclusive and can support people across race, age, gender, culture, and every other dimension of human diversity."
Mathur, a student at USC, hopes her research will eventually contribute to AI systems that support human health and societal well-being across cultures.
"There is potential for misuse of these technologies, so it is important to research how robots and AI systems can be effectively adapted across cultural contexts for assistive applications," she says.
Adolphs says his team's lab meetings always include discussions on diversity and racism (the lab has a Diversity, Equity, and Inclusion representative, postdoc Nina Rouhani).
"It's a topic we continue to be very concerned about. We talk about all of these issues and ask ourselves, "What else can we do?" We are continuing to emphasize issues of race and representativeness in our science."