• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • AI skulle kunna revolutionera DNA-bevis – men just nu kan vi inte lita på maskinerna

    AI kan förutsäga om någon faktiskt var på platsen för ett DNA-prov. Kredit:Gorodenkoff/Shutterstock

    DNA-bevis är ofta inte så vattentätt som många tror. Känsliga tekniker som utvecklats under de senaste 20 åren gör att polisen nu kan upptäcka små spår av DNA på en brottsplats eller på ett bevis. Men spår från en gärningsman blandas ofta med spår från många andra personer som har förts över till provplatsen, till exempel via ett handslag. Och detta problem har lett till att människor har blivit felaktigt dömda.

    Forskare har utvecklat algoritmer för att separera denna DNA-soppa och för att mäta de relativa mängderna av varje persons DNA i ett prov. Dessa metoder för "sannolikhetsgenotypning" har gjort det möjligt för kriminaltekniska utredare att ange hur troligt det är att en individs DNA ingick i ett blandat prov som hittats på brottsplatsen.

    Och nu, mer sofistikerade tekniker för artificiell intelligens (AI) utvecklas i ett försök att extrahera DNA-profiler och försöka ta reda på om ett DNA-prov kom direkt från någon som var på brottsplatsen, eller om det bara hade överförts oskyldigt.

    Men om denna teknik är framgångsrik, det kan introducera ett nytt problem, eftersom det för närvarande är omöjligt att förstå exakt hur denna AI når sina slutsatser. Och hur kan vi lita på att tekniken tillhandahåller viktiga bevis om vi inte kan förhöra hur den producerade bevisen från början? Det har potential att öppna vägen för ännu fler rättegångsfel och så denna brist på transparens kan vara ett hinder för teknikens användning i rättsmedicinska utredningar.

    Liknande utmaningar uppstod när programvaran för DNA-analys först utvecklades för ett decennium sedan. Bevis från DNA -blandningsprogramvara stötte mycket snabbt på utmaningar från försvarslag (inklusive OJ Simpson), som var oroliga för att åklagaren skulle visa att programvaran var korrekt validerad.

    Hur exakta var resultaten, och vad var den kända felfrekvensen? Hur exakt fungerade programvaran och kunde den tillgodose försvarshypoteser? Var resultaten verkligen så tillförlitliga att en jury säkert kunde döma?

    Det är en grundläggande grundsats i lagen att bevis måste vara öppna för granskning. Juryn kan inte förlita sig på kala påståenden (påståenden som görs utan bevis), oavsett vem som tillverkar dem och vilken expertis de har. Men ägarna av programvaran hävdade att det var deras skyddade immateriella rättigheter och hur det fungerade inte borde offentliggöras.

    En strid följde som involverade användningen av nya domstolsförfaranden för att tillåta försvarsteam att privat undersöka hur programvaran fungerade. Till sist, domstolarna var övertygade om att full tillgång till källkoden behövdes, inte minst för att pröva andra hypoteser än de som åklagaren framfört.

    Men programvaran har inte helt löst problemen med DNA-blandningar och små, försämrade prover. Vi vet fortfarande inte definitivt om DNA:t i ett prov kom direkt från en person eller överfördes dit. Detta kompliceras av det faktum att olika människor tappar DNA i olika takt – ett fenomen som kallas deras "shedder-status".

    Till exempel, ett prov taget från ett mordvapen kan innehålla mer DNA från någon som inte har rört det än från den som faktiskt begick mordet. Människor har åtalats för grova brott på grund av detta.

    Lägg till det faktum att DNA överförs med olika hastighet över olika ytor och under olika miljöförhållanden och det kan bli nästan omöjligt att veta exakt var DNA i ett prov kom ifrån. Detta problem med "överföring och persistens" hotar att allvarligt undergräva rättsmedicinskt DNA.

    Som ett resultat, experiment pågår för att hitta sätt att mer exakt kvantifiera DNA-överföring under olika omständigheter. Och AI har potential att analysera data från dessa experiment och använda dem för att indikera ursprunget till DNA i ett prov.

    Men AI-baserad programvara har ett ännu större transparensproblem än sannolikhetsprogram för genotypning, och en som för närvarande är grundläggande för hur det fungerar. Det exakta sättet som mjukvaran fungerar är inte bara en kommersiell hemlighet – det är oklart även för mjukvaruutvecklarna.

    Transparensfrågor

    AI använder matematiska algoritmer för att utföra uppgifter som att matcha ett ansiktsuttryck till en viss uppsättning känslor. Men, avgörande, den kan lära sig genom en process av trial and error och manipulerar gradvis sina underliggande algoritmer för att bli mer effektiva.

    Det är denna process av manipulation och förändring som inte alltid är transparent. Mjukvaran gör sina ändringar otroligt snabbt enligt sin egen otydliga logik. Det kan ge fantastiskt effektiva resultat men vi kan inte säga hur det gjorde det. Det fungerar som en svart låda som tar ingångar och ger utgångar, men vars inre arbeten är osynliga. Programmerare kan gå igenom en tydligare utvecklingsprocess men den är långsammare och mindre effektiv.

    Denna transparensfråga påverkar många bredare tillämpningar av AI. Till exempel, det gör det mycket svårt att korrigera AI-system vars beslut visar ras- eller könsfördomar, sådana som används för att sålla bland anställdas CV, eller att rikta in sig på polisresurser.

    Och tillkomsten av AI-driven DNA-analys kommer att lägga till en ytterligare dimension till de problem som redan har stött på. Försvarsadvokater skulle med rätta kunna utmana användningen av denna teknik, även om dess användning är begränsad till underrättelseinsamling snarare än att tillhandahålla åtalsbevis. Om inte transparensproblem åtgärdas i ett tidigt skede, hindren för AI-användning inom det kriminaltekniska området kan visa sig oöverstigliga.

    Hur kan vi ta oss an dessa utmaningar? Ett alternativ kan vara att välja det mindre effektiva, begränsade former av AI. Men om syftet med AI är att utföra de uppgifter vi är mindre kapabla till eller mindre villiga att göra själva, då kan minskning av effektiviteten vara en dålig lösning. Vilken form av AI vi än väljer att använda, inom ett kontradiktoriskt straffrättssystem måste det finnas möjlighet till översyn, att omarbeta alla automatiserade beslut, och för tredje part att tillhandahålla entydig validering.

    I sista hand, detta är inte bara en teknisk fråga, men ett akut etiskt problem som går till hjärtat av våra straffrättssystem. På spel står rätten till en mässa, öppen och transparent prövning. Detta är ett grundläggande krav som måste åtgärdas innan den stora rusningen av tekniska framsteg tar oss förbi punkten utan återvändo.

    Denna artikel publiceras från The Conversation under en Creative Commons -licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com