Upphovsman:CC0 Public Domain
En ny studie från New York University School of Law och NYU:s AI Now Institute drar slutsatsen att prediktiva polissystem löper risken att förvärra diskrimineringen i det straffrättsliga systemet om de förlitar sig på "smutsiga data".
Brottsbekämpning har under de senaste åren granskats för praxis som resulterat i oproportionerlig aggression mot minoritetsmisstänkta, vilket får en del att fråga sig om teknik – specifikt, programvara för förutsägande polisarbete – kan minska diskriminerande handlingar.
Dock, en ny studie från New York University School of Law och NYU:s AI Now Institute drar slutsatsen att prediktiva polissystem, faktiskt, riskerar att förvärra diskrimineringen inom det straffrättsliga systemet om de förlitar sig på "smutsiga data" – data skapade från felaktiga, rasistiskt partisk, och ibland olagliga metoder.
Forskarna illustrerar detta fenomen med fallstudiedata från Chicago, New Orleans, och Arizonas Maricopa County. Deras papper, "Smutsiga data, Dåliga förutsägelser:Hur kränkningar av medborgerliga rättigheter påverkar polisdata, Förutsägande polissystem, och rättvisa, " finns tillgängligt på SSRN.
"Vi valde dessa platser eftersom vi hittade en överlappning mellan omfattande dokumenterade bevis på korrupta eller olagliga polispraxis och betydande intresse, utveckling, och nuvarande eller tidigare användning av prediktiva polissystem. Detta fick oss att undersöka riskerna för att det ena skulle påverka det andra, " förklarar Jason Schultz, en professor i klinisk juridik och en av tidningens medförfattare.
Författarna, som inkluderar Rashida Richardson, chef för policyforskning vid AI Now Institute, och Kate Crawford, meddirektör för AI Now Institute, identifierade 13 jurisdiktioner (inklusive de tidigare nämnda fallstudierna) med dokumenterade fall av olaglig eller partisk polispraxis som också har utforskat eller implementerat förutsägande polissystem under perioder av olaglig aktivitet.
Chicagopolisen, till exempel, var under federal utredning för olaglig polispraxis när den implementerade ett datoriserat system som identifierar personer som riskerar att bli offer eller förövare i en skottlossning eller mord. Studien avslöjade att samma demografiska invånare som hade identifierats av justitiedepartementet som mål för Chicagos polisiära partiskhet överlappade dem som identifierades av det prediktiva systemet.
Andra exempel visade på betydande risker för överlappning men eftersom statlig användning av förutsägande polissystem ofta är hemlig och dold från offentlig tillsyn, omfattningen av riskerna är fortfarande okänd, enligt studien.
"I jurisdiktioner som har väletablerad historia av korrupta polispraxis, det finns en betydande risk att data som genereras från sådana metoder kan korrumpera prediktiva beräkningssystem. Under sådana omständigheter, robust offentlig tillsyn och ansvarsskyldighet är avgörande, " sa Schultz.
Huvudförfattaren Richardson lade till, "Även om den här studien var begränsad till jurisdiktioner med väletablerad historia av polismissbruk och diskriminerande polispraxis, vi vet att dessa farhågor om polisiära metoder och policyer inte är begränsade till dessa jurisdiktioner, så större granskning av data som används i prediktiv polisteknik är nödvändig globalt."