AI kan användas för att identifiera potentiella förövare av våldsbrott och bedöma risken för ett nytt brott. Kredit:Max Pixel, licensierad under CC0
En intelligent vattenpistol som använder ansiktsigenkänning för att identifiera sina mål hjälper till att lyfta fram några av de framväxande människorättsfrågorna kring artificiell intelligens (AI) – ett forskningsområde som ökar i takt med att ny teknik blir mer och mer utbredd i vår vardag. liv.
"Det är väldigt svårt att vara en AI-forskare nu och inte vara medveten om de etiska implikationer som dessa algoritmer har, sade professor Bernd Stahl, chef för Center for Computing and Social Responsibility vid De Montfort University i Leicester, STORBRITANNIEN.
"Vi måste komma till en bättre förståelse av inte bara vad dessa tekniker kan göra, men hur de kommer att spela ut i samhället och världen i stort."
Han leder ett projekt som heter SHERPA, som försöker brottas med några av de etiska frågorna kring smarta informationssystem som använder maskininlärning, en form av AI, och andra algoritmer för att analysera stora datamängder.
Den intelligenta vattenpistolen skapades i syfte att belysa hur fördomar i algoritmer kan leda till diskriminering och orättvis behandling. Byggd av en konstnär för SHERPA, vattenpistolen kan programmeras att välja sina mål.
"Vår artist har byggt en vattenpistol med ansiktsigenkänning så att den bara kommer att spruta vatten mot kvinnor eller så kan den ändras för att känna igen en enskild individ eller personer i en viss ålder, ", sa prof. Stahl. "Tanken är att få folk att tänka på vad den här typen av teknik kan göra."
Även om det kan verka som ofarligt roligt att spruta vatten mot människor, problemen är allt annat än. AI används redan för att identifiera ansikten på sociala medier, svara på frågor om digitala hemassistenter som Alexa och Siri, och föreslå produkter för konsumenter när de handlar online.
Det används också för att göra domar om brottslingars risk för återfall eller till och med till identifiera de som kan begå våldsbrott . Försäkringsgivare och skattemyndigheter använder det för att upptäcka bedrägerier, banker har vänt sig till AI för att hjälpa till att behandla låneansökningar och det gör det till och med prövad vid gränskontroller .
Effekter
Under det senaste året, Prof. Stahl och hans kollegor har sammanställt 10 fallstudier där de empiriskt har analyserat effekterna av dessa teknologier inom ett antal sektorer. Dessa inkluderar användningen av AI i smarta städer, dess användning av försäkringsbranschen, i utbildning, sjukvård, jordbruket och av regeringar.
"Det finns några mycket högprofilerade saker som går över sektorer, som integritet, dataskydd och cybersäkerhet, ", sa prof. Stahl. "AI skapar också nya utmaningar för rätten att arbeta om algoritmer kan ta människors jobb, eller rätten till fria val om den kan användas för att blanda sig i den demokratiska processen som vi såg med Cambridge Analytica."
Kanske är en av de mest kontroversiella användningarna av AI inom förutsägande polisarbete, där algoritmer tränas på historiska datauppsättningar för att plocka ut mönster i gärningsmannens beteende och egenskaper. Detta kan sedan användas för att förutsäga områden, grupper eller till och med individer som kan vara inblandade i brott i framtiden. Liknande teknik prövas redan i vissa delar av USA och Storbritannien.
Fördomar
Men dessa algoritmer kan också lära sig de fördomar som redan finns i datamängder. Om en polisdatabas visar att främst unga, svarta män arresteras för ett visst brott, det kanske inte är en rättvis återspegling av den faktiska gärningsmannens profil och istället speglar historisk rasism inom en styrka. Att använda AI som lärs ut på den här typen av data kan förvärra problem som rasism och andra former av diskriminering.
"Transparens för dessa algoritmer är också ett problem, ", sa prof. Stahl. "Dessa algoritmer gör statistisk klassificering av data på ett sätt som gör det nästan omöjligt att se hur exakt det hände." Detta väcker viktiga frågor om hur rättssystem, till exempel, kan förbli rättvisa och rättvisa om de börjar lita på ogenomskinliga "svarta lådan" AI-algoritmer för att informera domar eller domar om en persons skuld.
Nästa steg för projektet blir att titta på potentiella insatser som kan användas för att ta itu med några av dessa frågor. Den kommer att titta på var riktlinjer kan hjälpa till att säkerställa att AI-forskare bygger in rättvisa i sina algoritmer, där nya lagar kan styra deras användning och om en regulator kan hålla negativa aspekter av tekniken i schack.
Men ett av problemen som många regeringar och tillsynsmyndigheter står inför är att hänga med i den snabba förändringstakten inom ny teknik som AI, enligt professor Philip Brey, som studerar teknikfilosofi vid universitetet i Twente, i Nederländerna.
"De flesta människor idag förstår inte tekniken eftersom den är väldigt komplex, ogenomskinlig och snabbrörlig, ", sa han. "Av den anledningen är det svårt att förutse och bedöma effekterna på samhället, och att ha adekvata reglerande och lagstiftningsmässiga svar på detta. Politiken ligger vanligtvis betydligt efter."
Prof. Brey är koordinator för SIENNA-projektet, som utvecklar rekommendationer och uppförandekoder för en rad framväxande teknologier, inklusive mänsklig genomik, mänsklig förbättring, AI och robotik.
Brytning
"Informationsteknik har, självklart, redan haft stor inverkan på integriteten genom internet och de mobila enheter vi använder, men artificiell intelligens kan kombinera olika typer av information och utvinna dem på ett sätt som avslöjar fundamentalt ny information och insikter om människor, " sade Prof. Brey. "Det kan göra detta på ett mycket snabbt och effektivt sätt."
AI-teknik öppnar dörren till realtidsanalys av människors beteende, känslor tillsammans med förmågan att sluta sig till detaljer om deras mentala tillstånd eller deras avsikter.
"Det är något som tidigare inte var möjligt, "Sade prof. Brey. "Då väcker det du gör med den här informationen nya typer av farhågor om integritet."
SIENNA-teamet håller workshops, samråd med experter och opinionsundersökningar som syftar till att identifiera medborgarnas oro i 11 länder. De förbereder sig nu för att utarbeta en uppsättning rekommendationer som de som arbetar med AI och annan teknik kan omvandla till standarder som säkerställer att etiska och mänskliga rättigheter är fasta i designstadiet.
Denna bredare offentliga förståelse för hur tekniken sannolikt kommer att påverka dem kan vara avgörande för AI:s överlevnad på längre sikt, enligt prof. Stahl.
"Om vi inte förstår etiken rätt, då kommer folk att vägra använda det och det kommer att förinta alla tekniska framsteg, " han sa.