Kredit:Oleg Yarko/Shutterstock
En skiljelinje växer fram i debatten om så kallade mördarrobotar. Många länder vill se ny internationell lag om autonoma vapensystem som kan rikta in sig på och döda människor utan mänsklig inblandning. Men de länder som redan utvecklar sådana vapen försöker istället lyfta fram sina förmodade fördelar.
Jag bevittnade denna växande klyfta vid ett nyligen genomfört FN-möte med mer än 70 länder i Genève, där de som är för autonoma vapen, inklusive USA, Australien och Sydkorea, var mer vokala än någonsin. På mötet, USA hävdade att sådana vapen faktiskt kunde göra det lättare att följa internationell humanitär rätt genom att göra militära insatser mer exakta.
Ändå är det mycket spekulativt att säga att "mördarrobotar" någonsin kommer att kunna följa humanitär lag överhuvudtaget. Och medan politiker fortsätter att argumentera om detta, spridningen av autonomi och artificiell intelligens inom existerande militärteknologi sätter redan i praktiken oönskade standarder för dess roll i användningen av våld.
En serie öppna brev från framstående forskare som uttalar sig mot beväpning av artificiell intelligens har hjälpt till att uppmärksamma debatten om autonoma militära system. Problemet är att debatten ramas in som att den här tekniken är något från framtiden. Faktiskt, de frågor som det väcker behandlas redan i praktiken av befintliga system.
De flesta luftförsvarssystem har redan betydande autonomi i målinriktningsprocessen, och militära flygplan har mycket automatiserade funktioner. Det betyder att "robotar" redan är involverade i att identifiera och engagera mål.
Under tiden, en annan viktig fråga som aktualiseras av dagens teknik saknas i den pågående diskussionen. Fjärrstyrda drönare används för närvarande av flera länders militärer för att släppa bomber på mål. Men vi vet från incidenter i Afghanistan och på andra håll att drönarbilder inte räcker för att tydligt skilja mellan civila och kombattanter. Vi vet också att nuvarande AI-teknik kan innehålla betydande fördomar som påverkar dess beslutsfattande, ofta med skadliga effekter.
Människor trycker fortfarande på avtryckaren, men hur länge? Kredit:Burlingham/Shutterstock
Eftersom framtida helt autonoma flygplan sannolikt kommer att användas på liknande sätt som drönare, de kommer troligen att följa de metoder som drönare har lagt ut. Ändå utesluter stater som använder befintliga autonoma teknologier dem från den bredare debatten genom att hänvisa till dem som "semi-autonoma" eller så kallade "legacy system". På nytt, detta gör att frågan om "mördarrobotar" verkar mer futuristisk än den egentligen är. Detta hindrar också det internationella samfundet från att titta närmare på om dessa system är fundamentalt lämpliga enligt humanitär rätt.
Flera nyckelprinciper i internationell humanitär rätt kräver medvetna mänskliga bedömningar som maskiner inte är kapabla till. Till exempel, den juridiska definitionen av vem som är civil och vem som är kombattant är inte skriven på ett sätt som skulle kunna programmeras in i AI, och maskiner saknar situationsmedvetenhet och förmåga att sluta sig till saker som är nödvändiga för att fatta detta beslut.
Osynligt beslutsfattande
Mer djupgående, ju mer mål väljs ut och potentiellt attackeras av maskiner, desto mindre vet vi om hur dessa beslut fattas. Drönare förlitar sig redan mycket på intelligensdata som behandlas av "black box"-algoritmer som är mycket svåra att förstå för att välja sina föreslagna mål. Detta gör det svårare för de mänskliga operatörerna som faktiskt trycker på avtryckaren att ifrågasätta målförslag.
När FN fortsätter att diskutera denna fråga, det är värt att notera att de flesta länder som är för att förbjuda autonoma vapen är utvecklingsländer, som vanligtvis är mindre benägna att delta i internationella nedrustningssamtal. Så det faktum att de är villiga att uttala sig starkt mot autonoma vapen gör att de gör det desto mer betydelsefullt. Deras historia av att uppleva interventioner och invasioner från rikare, mer kraftfulla länder (som några av de som är för autonoma vapen) påminner oss också om att de är mest utsatta för denna teknik.
Med tanke på vad vi vet om befintliga autonoma system, vi borde vara mycket oroade över att "mördarrobotar" kommer att göra överträdelser av humanitär lag fler, inte mindre, troligt. Detta hot kan bara förebyggas genom att förhandla fram ny internationell lag som begränsar användningen av dem.
Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.