Utan en mångfald av testpersoner kan vissa nya tekniker misslyckas med att fungera som avsett för många människor. Kredit:John Paul Van Wert/Rank Studios/Flickr, CC BY-SA
Människor interagerar med maskiner på otaliga sätt varje dag. I vissa fall styr de aktivt en enhet, som att köra bil eller använda en app på en smartphone. Ibland interagerar människor passivt med en enhet, som att bli avbildad av en MRI-maskin. Och ibland interagerar de med maskiner utan samtycke eller ens vetskap om interaktionen, som att bli skannade av ett ansiktsigenkänningssystem från brottsbekämpande myndigheter.
Människan-maskin interaktion (HMI) är ett paraplybegrepp som beskriver hur människor interagerar med maskiner. HMI är en nyckelaspekt i att forska, designa och bygga ny teknik, och även studera hur människor använder och påverkas av teknologier.
Forskare, särskilt de som traditionellt är utbildade inom ingenjörsvetenskap, tar i allt större utsträckning ett människocentrerat tillvägagångssätt när de utvecklar system och enheter. Det innebär att sträva efter att göra teknik som fungerar som förväntat för de människor som ska använda den genom att ta hänsyn till vad som är känt om människorna och genom att testa tekniken med dem. Men även när ingenjörsforskare i allt högre grad prioriterar dessa överväganden, har vissa inom området en blind fläck:mångfald.
Som en tvärvetenskaplig forskare som tänker holistiskt kring teknik och design och expert på dynamik och smarta material med intressen i policy har vi undersökt bristen på inkludering i teknikdesign, de negativa konsekvenserna och möjliga lösningar.
Personer till hands
Forskare och utvecklare följer vanligtvis en designprocess som involverar att testa nyckelfunktioner och egenskaper innan de släpper produkter till allmänheten. Utförda på rätt sätt kan dessa test vara en nyckelkomponent i medkännande design. Testerna kan innehålla intervjuer och experiment med grupper av människor som ställer upp för allmänheten.
I akademiska miljöer är till exempel majoriteten av studiedeltagarna studenter. Vissa forskare försöker rekrytera deltagare utanför campus, men dessa samhällen liknar ofta universitetsbefolkningen. Kaféer och andra lokalt ägda företag kan till exempel tillåta att flygblad sätts upp i deras anläggningar. Kundkretsen till dessa anläggningar är dock ofta studenter, lärare och akademisk personal.
I många branscher fungerar medarbetare som testdeltagare för arbete i tidiga skeden eftersom det är bekvämt att rekrytera inifrån ett företag. Det krävs ansträngning att få in externa deltagare, och när de används speglar de ofta majoritetsbefolkningen. Därför har många av de personer som deltar i dessa studier liknande demografiska egenskaper.
Verklig skada
Det är möjligt att använda ett homogent urval av personer för att publicera en forskningsartikel som bidrar till ett fälts kunskapsmassa. Och vissa forskare som genomför studier på detta sätt erkänner begränsningarna hos homogena studiepopulationer. Men när det gäller att utveckla system som förlitar sig på algoritmer, kan sådana förbiseenden orsaka verkliga problem. Algoritmer är lika bra som den data som används för att bygga dem.
Algoritmer är ofta baserade på matematiska modeller som fångar mönster och sedan informerar en dator om dessa mönster för att utföra en given uppgift. Föreställ dig en algoritm utformad för att upptäcka när färger visas på en klar yta. Om uppsättningen bilder som används för att träna den algoritmen mestadels består av nyanser av rött, kanske algoritmen inte upptäcker när en nyans av blått eller gult är närvarande.
I praktiken har algoritmer misslyckats med att upptäcka mörkare hudtoner för Googles hudvårdsprogram och i automatiska tvålautomater; exakt identifiera en misstänkt, vilket ledde till att en oskyldig man greps på ett felaktigt sätt i Detroit; och på ett tillförlitligt sätt identifiera färgade kvinnor. MIT:s artificiell intelligensforskare Joy Buolamwini beskriver detta som algoritmisk bias och har omfattande diskuterat och publicerat arbete om dessa frågor.
Även när USA bekämpar COVID-19, har bristen på olika utbildningsdata blivit uppenbar i medicinsk utrustning. Pulsoximetrar, som är viktiga för att hålla reda på din hälsa hemma och för att indikera när du kan behöva sjukhusvård, kan vara mindre exakta för personer med melanerad hud. Dessa designfel, liksom de i algoritmer, är inte inneboende i enheten utan kan spåras tillbaka till att tekniken designades och testades med hjälp av populationer som inte var tillräckligt olika för att representera alla potentiella användare.
Var inkluderande
Forskare inom den akademiska världen är ofta under press att publicera forskningsresultat så snabbt som möjligt. Därför är det mycket vanligt att lita på bekvämlighetsprover – det vill säga människor som är lätta att nå och få data från.
Även om det finns institutionella granskningsnämnder för att säkerställa att studiedeltagares rättigheter skyddas och att forskare följer korrekt etik i sitt arbete, har de inte ansvaret att diktera för forskare vem de ska rekrytera. När forskare är tidspressade kan det innebära ytterligare förseningar att ta hänsyn till olika populationer för studieämnen. Slutligen kan vissa forskare helt enkelt vara omedvetna om hur man adekvat diversifierar sina studieämnen.
Det finns flera sätt som forskare inom den akademiska världen och industrin kan öka mångfalden av sina studiedeltagarpooler.
En är att få tid att göra det obekväma och ibland hårda arbetet med att utveckla inkluderande rekryteringsstrategier. Detta kan kräva kreativt tänkande. En sådan metod är att rekrytera olika studenter som kan fungera som ambassadörer till olika samhällen. Studenterna kan få forskningserfarenhet samtidigt som de fungerar som en brygga mellan sina samhällen och forskare.
En annan är att låta medlemmar av samhället delta i forskningen och ge samtycke till ny och obekant teknik när det är möjligt. Forskargrupper kan till exempel bilda en rådgivande styrelse bestående av medlemmar från olika samfund. Vissa områden inkluderar ofta en rådgivande styrelse som en del av sina statligt finansierade forskningsplaner.
Ett annat tillvägagångssätt är att inkludera personer som vet hur man tänker igenom kulturella implikationer av teknologier som medlemmar i forskargruppen. Till exempel väckte New York City Police Departments användning av en robothund i Brooklyn, Queens och Bronx upprördhet bland invånarna. Detta kunde ha undvikits om de hade samarbetat med experter inom samhällsvetenskap eller naturvetenskap och teknik, eller helt enkelt rådfrågat samhällsledare.
Slutligen handlar mångfald inte bara om ras utan också ålder, könsidentitet, kulturell bakgrund, utbildningsnivåer, funktionshinder, engelska kunskaper och även socioekonomiska nivåer. Lyft är på ett uppdrag att distribuera robotaxis nästa år, och experter är entusiastiska över möjligheterna att använda robotaxis för att transportera äldre och funktionshindrade. Det är inte klart om dessa ambitioner inkluderar de som bor i mindre välbärgade eller låginkomstsamhällen, eller saknar familjestöd som kan hjälpa till att förbereda människor att använda tjänsten. Innan du skickar en robotaxi för att transportera mormödrar är det viktigt att ta hänsyn till hur många olika människor kommer att uppleva tekniken.