• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  •  science >> Vetenskap >  >> Andra
    Hjälper polisen att fatta häktningsbeslut med hjälp av artificiell intelligens

    Kredit:Rene Böhmer på Unsplash

    Polisen i "frontlinjen" av svåra riskbaserade bedömningar prövar ett AI-system som utbildats av University of Cambridges kriminologer för att ge vägledning med hjälp av resultatet av fem års brottshistoria.

    "Klockan är 03:00 på lördagsmorgonen. Mannen framför dig har gripits i besittning av droger. Han har inga vapen, och inga uppgifter om några våldsamma eller allvarliga brott. Släpper du ut mannen mot borgen nästa morgon, eller hålla honom inlåst i två dagar för att säkerställa att han kommer till domstolen på måndag?"

    Den typ av scenario som Dr. Geoffrey Barnes beskriver – om man ska kvarhålla en misstänkt i polisförvar eller släppa dem mot borgen – inträffar hundratusentals gånger om året över hela Storbritannien. Resultatet av detta beslut kan bli stort för den misstänkte, för allmän säkerhet och för polisen.

    "Poliserna som fattar dessa häktningsbeslut är mycket erfarna, " förklarar Barnes. "Men all deras kunskap och poliskunskaper kan inte berätta för dem vad de behöver mest om den misstänkte nu – hur troligt är det att han eller hon kommer att orsaka stor skada om de släpps? Det här är ett jobb som verkligen skrämmer människor – de är i frontlinjen av riskbaserat beslutsfattande."

    Barnes och professor Lawrence Sherman, som leder Jerry Lee Center for Experimental Criminology vid University of Cambridges Institute of Criminology, har arbetat med polisstyrkor runt om i världen för att fråga om AI kan hjälpa.

    "Föreställ dig en situation där officeren har fördelen av hundra tusen, och mer, verkliga tidigare erfarenheter av vårdnadsbeslut?" säger Sherman. "Ingen person kan ha så många erfarenheter, men en maskin kan."

    I mitten av 2016 med finansiering från Monument Trust, forskarna installerade världens första AI-verktyg för att hjälpa polisen att fatta frihetsberövande beslut i Durham Constabulary.

    Kallas Harm Assessment Risk Tool (HART), den AI-baserade tekniken använder 104, 000 historier om personer som tidigare arresterats och behandlats i Durhams häktessviter under loppet av fem år, med två års uppföljning för varje vårdnadsbeslut. Med hjälp av en metod som kallas "slumpmässiga skogar", modellen tittar på ett stort antal kombinationer av "prediktorvärden", varav de flesta fokuserar på den misstänktes kränkande historia, samt ålder, kön och geografiskt område.

    "Dessa variabler kombineras på tusentals olika sätt innan en slutlig prognostiserad slutsats nås, " förklarar Barnes. "Föreställ dig en människa som har det här antalet variabler i huvudet, och göra alla dessa kopplingar innan du fattar ett beslut. Våra sinnen kan helt enkelt inte göra det."

    Syftet med HART är att kategorisera huruvida en förövare under de kommande två åren är hög risk (med stor sannolikhet att begå ett nytt allvarligt brott som mord, grovt våld, sexualbrott eller rån); måttlig risk (sannolikt att begå ett icke-allvarligt brott); eller låg risk (kommer sannolikt inte att begå något brott).

    "Behovet av bra förutsägelser handlar inte bara om att identifiera de farliga människorna, " förklarar Sherman. "Det handlar också om att identifiera människor som definitivt inte är farliga. För varje fall av en misstänkt mot borgen som dödar någon, det finns tiotusentals icke-våldsmisstänkta som är inlåsta längre än nödvändigt."

    Durham Constabulary vill identifiera gruppen "måttlig risk" - som står för knappt hälften av alla misstänkta enligt statistiken som genereras av HART. Dessa personer kan ha nytta av deras Checkpoint-program, som syftar till att ta itu med grundorsakerna till brott och erbjuda ett alternativ till åtal som de hoppas kommer att förvandla måttliga risker till låga risker.

    "Det är nålar och höstackar, " säger Sherman. "Å ena sidan, de farliga "nålarna" är för sällsynta för att någon ska kunna träffa dem tillräckligt ofta för att se dem. På den andra, "höet" utgör inget hot och att hålla dem i förvar slöser resurser och kan till och med göra mer skada än nytta." En randomiserad kontrollerad studie pågår för närvarande i Durham för att testa användningen av Checkpoint bland de som förväntas vara måttlig risk.

    HART uppdateras också med nyare data – ett steg som Barnes förklarar kommer att vara en viktig del av den här typen av verktyg:"En mänsklig beslutsfattare kan omedelbart anpassa sig till ett föränderligt sammanhang – såsom en prioritering av vissa brott, som hatbrott – men detsamma kan inte nödvändigtvis sägas om ett algoritmiskt verktyg. Detta tyder på behovet av noggrann och konstant granskning av de prediktorer som används och för att ofta uppdatera algoritmen med nyare historiska data."

    Inget förutsägelseverktyg kan vara perfekt. En oberoende valideringsstudie av HART fann en total noggrannhet på cirka 63 %. Men, säger Barnes, den verkliga kraften i maskininlärning kommer inte från att undvika några fel alls utan från att bestämma vilka fel du helst vill undvika.

    "Alla fel är inte lika, " säger Sheena Urwin, chef för straffrätt vid Durham Constabulary och examen från Institute of Criminologys Police Executive Master of Studies Programme. "Det värsta felet skulle vara om modellen prognostiserar låga och gärningsmannen visade sig hög."

    "I samråd med polisen i Durham, vi byggde ett system som är 98 % noggrant för att undvika denna farligaste form av fel – det "falska negativa" – gärningsmannen som förutspås vara relativt säker, men fortsätter sedan med att begå ett allvarligt våldsbrott, ", tillägger Barnes. "AI är steglöst justerbar och när man konstruerar ett AI-verktyg är det viktigt att väga upp den etiskt lämpligaste vägen att ta."

    Forskarna betonar också att HARTs resultat endast är vägledande, och att det yttersta beslutet fattas av den ansvariga polismannen.

    "HART använder Durhams data och därför är det bara relevant för brott som begås i Durham Constabularys jurisdiktion. Denna begränsning är en av anledningarna till att sådana modeller ska ses som stöd för mänskliga beslutsfattare som inte ersätter dem, " förklarar Barnes. "Dessa teknologier är inte, av sig själva, silverkulor för brottsbekämpning, och inte heller är de olycksbådande intrig av en så kallad övervakningsstat."

    Vissa beslut, säger Sherman, har för stor inverkan på samhället och individers välfärd för att de ska kunna påverkas av en framväxande teknologi.

    Där AI-baserade verktyg ger stora löften, dock, är att använda prognosen för brottslingarnas risknivå för effektiv "triage", som Sherman beskriver:"Polisen är under press att göra mer med mindre, att rikta resurser mer effektivt, och för att skydda allmänheten.

    "Verktyget hjälper till att identifiera de få 'nålar i höstacken' som utgör en stor fara för samhället, och vars frisläppande bör bli föremål för ytterligare översyn. På samma gång, bättre triaging kan leda till att rätt lagöverträdare får frigivningsbeslut som gynnar både dem och samhället."


    © Vetenskap https://sv.scienceaq.com