• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  •  science >> Vetenskap >  >> Andra
    Växande rörelse av forskare driver förbud mot mördarrobotar
    En endoskeletskalle från filmen 'Terminator Genisys'. Utbredningen av artificiell intelligens (AI) -teknologi genererar en våg av oro från det globala vetenskapliga samfundet. Gabe Ginsberg/WireImage/Getty Images

    Om du är ett fan av filmen "Terminator", du har redan sett en skrämmande fiktiv glimt av ett mardrömskt dystopiskt slagfält där maskiner utrustade med artificiell intelligens har den obegränsade kraften att döda människor.

    Även om helt autonoma vapen - den tekniska termen för mördarrobotar - ännu inte är verklighet, den snabba utvecklingen av robotik och artificiell intelligens väcker arméns spöke någon gång snart med stridsvagnar och flygplan som kan attackera utan en människa vid kontrollerna.

    Enligt en rapport från Center for a New American Security från 2017, mer än 30 länder har antingen eller utvecklar beväpnade drönare. Den ryska nyhetsbyrån TASS rapporterade också 2017 om landets utveckling av en automatiserad "stridsmodul" - en robottank - som kan använda artificiell intelligens för att identifiera mål och fatta beslut. Och medan nuvarande amerikansk politik utesluter helt autonoma vapen, Pentagon utvecklar luft- och markrobotar som skulle fungera i svärmar om 250 eller mer, utför övervakning och andra funktioner för att stödja mänskliga trupper. Och enligt South China Morning Post, Kina arbetar med att utveckla ubåtar utrustade med artificiell intelligens som skulle hjälpa befälhavare att fatta taktiska beslut.

    Framtiden närmar sig snabbt

    Den snabba brådskan med att automatisera krigföring är alarmerande forskare, och över hela världen, det finns en växande rörelse för att stoppa utvecklingen av autonoma vapen innan tekniken har en chans att sprida sig. Nära 4, 000 forskare och forskare inom artificiell intelligens och robotik inom andra områden - inklusive SpaceX och Tesla -grundaren Elon Musk, Apples medgrundare Steve Wozniak och den avlidne astrofysikern Stephen Hawking-har undertecknat ett öppet brev till världen, uppmanar till ett förbud mot "offensiva autonoma vapen som ligger utanför meningsfull mänsklig kontroll." Organisationer som Campaign to Stop Killer Robots har blivit allt starkare om behovet av restriktioner för sådan teknik.

    "Vi är bara några år bort, "Toby Walsh, Scientia -professorn i artificiell intelligens vid Australiens universitet i New South Wales, varnar i ett mejl. "Prototyper finns på alla stridssfärer - i luften, på marken, på havet och under havet. "

    Walsh engagerade sig i insatsen för flera år sedan, när det blev uppenbart för honom att "ett vapenlopp för att utveckla sådana vapen startade, och vi hade en möjlighet att förhindra den dystopiska framtiden som Hollywood ofta skildrar. "

    Walsh och andra AI -forskare använde nyligen sin framträdande i fältet för att utöva påtryckningar. Efter KAIST (Korea Advanced Institute of Science and Technology), ett sydkoreanskt forskningsuniversitet, lanserade ett nytt centrum för konvergenser mellan AI och nationellt försvar, de skickade ett öppet brev till KAIST-presidenten Sung-Chul Shin, hotar med en bojkott om han inte försäkrar att centret inte skulle utveckla helt autonoma vapen som saknade meningsfull mänsklig kontroll. (Sung utfärdade därefter ett uttalande som bekräftade att universitetet inte skulle utveckla sådana vapen, enligt Times Higher Education.)

    FN -initiativet

    Anti-killer robotrörelsen håller också noga koll på utvecklingen i Genève, där representanter från olika länder samlades i april 2018 för en FN -konferens om vad man ska göra med autonoma vapen.

    Richard Moyes, verkställande direktören för artikel 36, en i Storbritannien baserad vapenkontrollorganisation, säger i ett mejl att autonoma vapen kan urholka den rättsliga ram som styr krigföring, som är beroende av att människor fattar beslut om huruvida maktanvändning är laglig i en given situation. "Om maskiner får en bred licens för att utföra attacker kommer dessa mänskliga rättsliga bedömningar inte längre att baseras på en verklig förståelse av omständigheterna på plats, "skriver Moyes, en mottagare av Nobels fredspris 2017 för sitt arbete med kärnvapenreduktion. "Detta öppnar vägen för en verklig avhumanisering av konflikter."

    USA skulle förmodligen stödja ett mördande robotförbud. Under 2012, Obama -administrationen utfärdade ett direktiv - som Trump White House tydligen har valt att fortsätta - som kräver att autonom vapenteknik ska utformas "så att befälhavare och operatörer kan utöva lämpliga nivåer av mänskligt omdöme över maktanvändning." Direktivet kräver också skyddsåtgärder för att skydda mot att autonoma vapen fungerar som de ska och startar attacker på egen hand. Defense Advanced Research Projects Agency (DARPA) direktör Steven Walker sa i mars att han tvivlade på att USA någonsin skulle tillåta maskiner att fatta beslut om att använda dödlig våld, enligt The Hill.

    I ett mejl, DARPA -talesman Jared Adams säger att byråns forskning istället fokuserar på att "undersöka sätt att säkerställa att teknik förbättrar mänskliga operatörers förmåga att fatta snabba beslut vid kritiska ögonblick snarare än att urholka den förmågan." Det finns en oro för att mänskliga operatörers beroende av automatisering kan minska deras lägesmedvetenhet när de behöver anropa det - ett problem som Adams säger illustreras av kraschen 2009 av Air France -flyg 447. "Av denna anledning, DARPA:s forskning relaterad till autonomi försöker hitta en optimal balans mellan olika driftsätt med tonvikt på att ge maximalt beslutsstöd till krigsmän, " han säger.

    Inget internationellt samförstånd

    Men att förbjuda mördarrobotar internationellt kan visa sig vara svårt. Bonnie Docherty, senior vapenforskare på Human Rights Watch och associerad chef för väpnade konflikter och civilt skydd vid Harvard Law Schools International Human Rights Clinic, säger i ett mejl att medan de flesta länderna vid FN -konferensen är oroliga för autonoma vapen, det finns ännu inte konsensusstöd för ett juridiskt bindande internationellt förbud.

    Skulle ett förbud mot mördarrobotar fungera? Ett mångårigt internationellt fördrag som förbjuder kemiska vapen, till exempel, uppenbarligen inte har stoppat användningen av sådana vapen i det syriska inbördeskriget.

    Ändå, Docherty hävdade att förbud mot kemiska vapen, antipersonalgruvor och klustervapen har fortfarande räddat liv. "Sådana lagar binder länder som ansluter sig till dem, och genom att stigmatisera problematiska vapen kan påverka även länder som inte är part. Varje lag - även mot ett allmänt accepterat brott som mord - kan brytas av en oseriös skådespelare, men det betyder inte att sådana lagar inte bör antas. Lag har fortfarande en betydande inverkan på beteendet och ett nytt internationellt fördrag bör antas för att förhindra helt autonoma vapen, " hon skriver.

    Nu är det intressant

    "Slaughterbots" -videon, skapad med hjälp av University of California, Berkeley professor i datavetenskap och teknik, Stuart Russell, skildrar ett hemskt scenario där små drönare spårar och mördar utvalda individer, som identifieras genom sociala medier. Tanken var att dramatisera hur tekniken skulle kunna användas som ett massförstörelsevapen, Russell förklarade i en intervju med ABC7 News.

    © Vetenskap https://sv.scienceaq.com