• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Förbjud mördarrobotar för att skydda grundläggande moraliska och juridiska principer

    Den amerikanska militären testar redan ett Modular Advanced Armed Robotic System. Kredit:Lance Cpl. Julien Rodarte, US Marine Corps

    När man utarbetade ett fördrag om krigets lagar i slutet av 1800-talet, diplomater kunde inte förutse framtiden för vapenutveckling. Men de antog en rättslig och moralisk standard för att bedöma ny teknik som inte omfattas av befintliga fördragsspråk.

    Denna standard, känd som Mårtensklausulen, har överlevt generationer av internationell humanitär rätt och fått förnyad relevans i en värld där autonoma vapen är på randen av att göra sina egna beslut om vem de ska skjuta och när. Martensklausulen uppmanar länder att inte använda vapen som avviker "från mänsklighetens principer och från det allmänna samvetets diktat".

    Jag var huvudförfattare till en ny rapport från Human Rights Watch och Harvard Law School International Human Rights Clinic som förklarar varför helt autonoma vapen skulle strida mot mänsklighetens principer och det allmänna samvetets diktat. Vi fann att för att följa Martensklausulen, länder bör anta ett fördrag som förbjuder utveckling, produktion och användning av dessa vapen.

    Representanter för mer än 70 nationer kommer att samlas från 27 till 31 augusti vid FN i Genève för att diskutera hur man ska ta itu med problemen med vad de kallar dödliga autonoma vapensystem. Dessa länder, som är parter i konventionen om konventionella vapen, har diskuterat frågan i fem år. Jag och mina medförfattare anser att det är dags att de vidtar åtgärder och enades om att börja förhandla om ett förbud nästa år.

    Att skapa regler för det okända

    Martensklausulen tillhandahåller en grundlinje för skydd för civila och soldater i avsaknad av specifik fördragslagstiftning. Klausulen anger också en standard för att utvärdera nya situationer och tekniker som inte tidigare var tänkta.

    Helt autonoma vapen, ibland kallade "mördarrobotar, " skulle välja och engagera mål utan meningsfull mänsklig kontroll. De skulle vara ett farligt steg bortom nuvarande beväpnade drönare eftersom det inte skulle finnas någon människa i slingan för att avgöra när man ska skjuta och mot vilket mål. Även om helt autonoma vapen ännu inte existerar, Kina, Israel, Ryssland, Sydkorea, Storbritannien och USA arbetar alla för att utveckla dem. De hävdar att tekniken skulle behandla information snabbare och hålla soldater borta från slagfältet.

    Möjligheten att helt autonoma vapen snart kan bli verklighet gör det absolut nödvändigt för dessa och andra länder att tillämpa Martensklausulen och bedöma om tekniken skulle kränka den grundläggande mänskligheten och det allmänna samvetet. Vår analys visar att helt autonoma vapen skulle misslyckas i testet på båda punkter.

    Mänsklighetens principer

    Martensklausulens historia visar att den är en grundläggande princip i internationell humanitär rätt. Med ursprung i 1899 års Haagkonvention, versioner av den förekommer i alla fyra Genèvekonventionerna och tilläggsprotokoll I. Den citeras i många nedrustningsfördrag. 1995, oro under Martens-klausulen motiverade länder att anta ett förebyggande förbud mot blindande lasrar.

    Mänsklighetens principer kräver human behandling av andra och respekt för mänskligt liv och värdighet. Helt autonoma vapen kunde inte uppfylla dessa krav eftersom de inte skulle kunna känna medkänsla, en känsla som inspirerar människor att minimera lidande och död. Vapnen skulle också sakna den juridiska och etiska bedömning som krävs för att säkerställa att de skyddar civila i komplexa och oförutsägbara konfliktsituationer.

    Under mänsklig övervakning – för nu. Kredit:Pfc. Rhita Daniel, US Marine Corps

    Dessutom, som livlösa maskiner, dessa vapen kunde inte riktigt förstå värdet av ett enskilt liv eller betydelsen av dess förlust. Deras algoritmer skulle översätta människoliv till numeriska värden. Genom att fatta dödliga beslut baserat på sådana algoritmer, de skulle reducera sina mänskliga mål – vare sig de är civila eller soldater – till föremål, undergräver deras människovärde.

    Det allmänna samvetets diktat

    Det växande motståndet mot helt autonoma vapen visar att de också strider mot det allmänna samvetets föreskrifter. regeringar, experter och allmänheten har alla invänt, ofta på moraliska grunder, till möjligheten att förlora mänsklig kontroll över våldsanvändningen.

    Hittills, 26 länder har uttryckligen stött ett förbud, inklusive Kina. De flesta länder som har talat vid FN:s möten om konventionella vapen har efterlyst någon form av meningsfull mänsklig kontroll över våldsanvändningen. Att kräva sådan kontroll är i praktiken detsamma som att förbjuda vapen som fungerar utan en person som bestämmer när man ska döda.

    Tusentals forskare och experter på artificiell intelligens har ställt sig bakom ett förbud och krävt åtgärder från FN. I juli 2018, de utfärdade ett löfte att inte hjälpa till med utveckling eller användning av helt autonoma vapen. Stora företag har också krävt förbudet.

    Mer än 160 trosledare och mer än 20 Nobels fredspristagare har på liknande sätt fördömt tekniken och ställt sig bakom ett förbud. Flera internationella och nationella opinionsundersökningar har funnit att en majoritet av människor som svarade motsatte sig att utveckla och använda helt autonoma vapen.

    Kampanjen för att stoppa mördarrobotar, en koalition av 75 icke-statliga organisationer från 42 länder, har lett opposition från icke-statliga grupper. Human Rights Watch, som jag jobbar för, var med och grundade och koordinerar kampanjen.

    Andra problem med mördarrobotar

    Helt autonoma vapen skulle hota mer än mänskligheten och det allmänna samvetet. They would likely violate other key rules of international law. Their use would create a gap in accountability because no one could be held individually liable for the unforeseeable actions of an autonomous robot.

    Vidare, the existence of killer robots would spark widespread proliferation and an arms race – dangerous developments made worse by the fact that fully autonomous weapons would be vulnerable to hacking or technological failures.

    Bolstering the case for a ban, our Martens Clause assessment highlights in particular how delegating life-and-death decisions to machines would violate core human values. Our report finds that there should always be meaningful human control over the use of force. We urge countries at this U.N. meeting to work toward a new treaty that would save people from lethal attacks made without human judgment or compassion. A clear ban on fully autonomous weapons would reinforce the longstanding moral and legal foundations of international humanitarian law articulated in the Martens Clause.

    Denna artikel publicerades ursprungligen på The Conversation. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com