Ett dussintal Google-arbetare sägs sluta företaget på grund av samarbetet med den amerikanska militären om drönare
En intern petition som uppmanade Google att hålla sig borta från "krigets verksamhet" fick stöd på tisdagen, med några arbetare som enligt uppgift slutade för att protestera mot ett samarbete med den amerikanska militären.
Cirka 4, 000 Google-anställda sägs ha undertecknat en namninsamling som började cirkulera för ungefär tre månader sedan och uppmanade internetjätten att avstå från att använda artificiell intelligens för att göra amerikanska militärdrönare bättre på att känna igen vad de övervakar.
Den tekniska nyhetswebbplatsen Gizmodo rapporterade denna vecka att ett dussintal Google-anställda slutar i en etisk ståndpunkt.
Det Kalifornien-baserade företaget svarade inte omedelbart på förfrågningar om vad som kallades Project Maven, som enligt uppgift använder maskininlärning och ingenjörstalang för att särskilja människor och föremål i drönarvideor för försvarsdepartementet.
"Vi anser att Google inte bör vara i krigsbranschen, " petitionen lyder, enligt kopior som lagts ut på nätet.
"Därför, vi ber att Project Maven ställs in, och det där Google-utkastet, publicera och genomdriva en tydlig policy som säger att varken Google eller dess entreprenörer någonsin kommer att bygga krigföringsteknik."
"Stig away" från mördardrönare
Electronic Frontier Foundation, en interneträttighetsgrupp, och International Committee for Robot Arms Control (ICRAC) var bland dem som har vägt in med stöd.
Medan rapporter indikerade att artificiell intelligens skulle granskas av mänskliga analytiker, tekniken kan bana väg för automatiserade målinriktningssystem på beväpnade drönare, ICRAC resonerade i ett öppet stödbrev till Googles anställda mot projektet.
"När militära befälhavare kommer att se algoritmerna för objektigenkänning som tillförlitliga, det kommer att vara frestande att försvaga eller till och med ta bort mänsklig granskning och tillsyn för dessa system, ", sa ICRAC i brevet.
"Vi är då bara ett kort steg bort från att tillåta autonoma drönare att döda automatiskt, utan mänsklig övervakning eller meningsfull mänsklig kontroll."
Google har sagt att dess arbete med att förbättra maskiners förmåga att känna igen objekt inte är för stötande användning, men publicerade dokument visar en "murrigare" bild, EFF:s Cindy Cohn och Peter Eckersley sa i ett onlineinlägg förra månaden.
"Om vår läsning av den offentliga journalen är korrekt, system som Google stöder eller bygger skulle flagga personer eller föremål som ses av drönare för mänsklig granskning, och i vissa fall skulle detta leda till efterföljande missilangrepp på dessa människor eller föremål, sa Cohn och Eckersley.
"Det är rejäla etiska insatser, även med människor i slingan längre fram längs "dödkedjan."
EFF och andra välkomnade intern Google-debatt, betonar behovet av moraliska och etiska ramar för användningen av artificiell intelligens i vapen.
"Användningen av AI i vapensystem är ett mycket viktigt ämne och ett ämne som förtjänar en internationell offentlig diskussion och sannolikt några internationella överenskommelser för att säkerställa global säkerhet, " sa Cohn och Eckersley.
"Företag som Google, såväl som deras motsvarigheter runt om i världen, måste överväga konsekvenserna och kräva verklig ansvarighet och uppförandenormer från de militära myndigheter som söker deras expertis – och från dem själva."
© 2018 AFP