Demonstranter i Berlin deltar i en "Stop Killer Robots"-kampanj organiserad av den tyska NGO "Facing Finance" för att förbjuda vad de kallar mördarrobotar, i mars 2019
Amazon, Microsoft och Intel är bland ledande teknikföretag som sätter världen på spel genom utveckling av mördarrobotar, enligt en rapport som undersökte stora aktörer från sektorn om deras inställning till dödliga autonoma vapen.
Den holländska icke-statliga organisationen Pax rankade 50 företag efter tre kriterier:om de utvecklade teknologi som kan vara relevant för dödlig AI, om de arbetade med relaterade militära projekt, och om de hade förbundit sig att avstå från att bidra i framtiden.
"Varför förnekar inte företag som Microsoft och Amazon att de för närvarande utvecklar dessa mycket kontroversiella vapen, som skulle kunna besluta att döda människor utan direkt mänsklig inblandning?" sa Frank Slijper, huvudförfattare till rapporten som publicerades denna vecka.
Användningen av AI för att tillåta vapensystem att självständigt välja och attackera mål har väckt etiska debatter de senaste åren, med kritiker som varnar för att de skulle äventyra internationell säkerhet och förebåda en tredje revolution i krigföring efter krut och atombomben.
En panel av regeringsexperter diskuterade politiska alternativ angående dödliga autonoma vapen vid ett möte med FN:s konvention om vissa konventionella vapen i Genève på onsdagen.
Google, som förra året publicerade vägledande principer som undviker AI för användning i vapensystem, var bland sju företag som visade sig vara engagerad i "bästa praxis" i analysen som sträckte sig över 12 länder, liksom Japans Softbank, mest känd för sin humanoida Pepper-robot.
Tjugotvå företag var av "medelstor oro, medan 21 hamnade i en kategori med hög oro, särskilt Amazon och Microsoft som båda lägger bud på ett Pentagon-kontrakt på 10 miljarder dollar för att tillhandahålla molninfrastrukturen för den amerikanska militären.
Andra i gruppen "hög oro" inkluderar Palantir, ett företag med rötter i en CIA-stödd riskkapitalorganisation som tilldelades ett kontrakt på 800 miljoner dollar för att utveckla ett AI-system "som kan hjälpa soldater att analysera en stridszon i realtid."
"Autonoma vapen kommer oundvikligen att bli skalbara massförstörelsevapen, för om människan inte är i slingan, då kan en enda person avfyra en miljon vapen eller hundra miljoner vapen, " Stuart Russell, en professor i datavetenskap vid University of California, Berkeley sa till AFP på onsdagen.
"Faktum är att autonoma vapen kommer att utvecklas av företag, och när det gäller en kampanj för att förhindra att autonoma vapen blir utbredda, de kan spela en mycket stor roll, " han lade till.
Utvecklingen av AI för militära ändamål har utlöst debatter och protester inom branschen:förra året avböjde Google att förnya ett Pentagon-kontrakt kallat Project Maven, som använde maskininlärning för att särskilja människor och föremål i drönarvideor.
Det hoppade också av tävlingen för Joint Enterprise Defence Infrastructure (JEDI), molnkontraktet som Amazon och Microsoft hoppas kunna ta del av.
Rapporten noterade att Microsoft-anställda också hade uttryckt sitt motstånd mot ett kontrakt från den amerikanska armén för ett augmented reality-headset, HoloLens, som syftar till att "öka dödligheten" på slagfältet.
Hur de kan se ut
Enligt Russell, "allt som för närvarande är ett vapen, människor arbetar med autonoma versioner, oavsett om det är tankar, stridsflygplan, eller ubåtar."
Israels Harpy är en autonom drönare som redan finns, "löfta" i ett målområde och välja platser att träffa.
Ännu mer oroande är nya kategorier av autonoma vapen som ännu inte existerar – dessa kan inkludera beväpnade minidrönare som de som presenterades i 2017 års kortfilm "Slaughterbots".
"Med den typen av vapen, du kan skicka en miljon av dem i en container eller fraktflygplan – så de har en destruktiv kapacitet som en kärnvapenbomb men lämnar alla byggnader bakom sig, " sa Russell.
Med hjälp av ansiktsigenkänningsteknik, drönarna kunde "utplåna en etnisk grupp eller ett kön, eller genom att använda information på sociala medier kan du utplåna alla människor med en politisk åsikt."
Europeiska unionen publicerade i april riktlinjer för hur företag och regeringar bör utveckla AI, inklusive behovet av mänsklig tillsyn, arbeta för samhälleligt och miljömässigt välbefinnande på ett icke-diskriminerande sätt, och respektera integriteten.
Russell hävdade att det var viktigt att ta nästa steg i form av ett internationellt förbud mot dödlig AI, som skulle kunna sammanfattas som "maskiner som kan besluta att döda människor ska inte utvecklas, utplacerade, eller används."
© 2019 AFP