• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  •  Science >> Vetenskap >  >> Andra
    Israel anklagas för att ha använt AI för att rikta in sig på tusentals i Gaza, eftersom mördaralgoritmer överträffar internationell lag

    Kredit:Pixabay/CC0 Public Domain

    Den israeliska armén använde ett nytt artificiell intelligens (AI)-system för att generera listor med tiotusentals mänskliga mål för potentiella luftangrepp i Gaza, enligt en rapport som publicerades förra veckan. Rapporten kommer från den ideella butiken +972 Magazine, som drivs av israeliska och palestinska journalister.



    Rapporten citerar intervjuer med sex icke namngivna källor inom israelisk underrättelsetjänst. Källorna hävdar att systemet, känt som lavendel, användes med andra AI-system för att rikta in sig på och mörda misstänkta militanter – många i sina egna hem – vilket orsakade ett stort antal civila offer.

    Enligt en annan rapport i Guardian, baserad på samma källor som +972-rapporten, sa en underrättelseofficer att systemet "gjorde det lättare" att utföra ett stort antal strejker, eftersom "maskinen gjorde det kallt".

    När militärer runt om i världen tävlar om att använda AI visar dessa rapporter oss hur det kan se ut:krigföring i maskinhastighet med begränsad noggrannhet och liten mänsklig tillsyn, med en hög kostnad för civila.

    Militär AI i Gaza är inte ny

    Den israeliska försvarsstyrkan förnekar många av påståendena i dessa rapporter. I ett uttalande till The Guardian sa de att de "inte använder ett artificiellt intelligenssystem som identifierar terrorister". Det sa att Lavender inte är ett AI-system utan "helt enkelt en databas vars syfte är att korsreferensera underrättelsekällor".

    Men 2021 rapporterade Jerusalem Post en underrättelsetjänsteman som sa att Israel precis hade vunnit sitt första "AI-krig" – en tidigare konflikt med Hamas – genom att använda ett antal maskininlärningssystem för att sålla igenom data och producera mål. Samma år publicerades en bok som heter The Human–Machine Team, som beskrev en vision av AI-driven krigföring, under en pseudonym av en författare som nyligen avslöjats vara chef för en viktig israelisk hemlig underrättelseenhet.

    Förra året sa en annan +972-rapport att Israel också använder ett AI-system som heter Habsora för att identifiera potentiella militanta byggnader och anläggningar att bomba. Enligt rapporten genererar Habsora mål "nästan automatiskt", och en före detta underrättelseofficer beskrev det som "en massmordsfabrik".

    Den senaste +972-rapporten hävdar också att ett tredje system, kallat Where's Daddy?, övervakar mål som identifierats av lavendel och varnar militären när de återvänder hem, ofta till sin familj.

    Död efter algoritm

    Flera länder vänder sig till algoritmer på jakt efter en militär fördel. Den amerikanska militärens Project Maven tillhandahåller AI-inriktning som har använts i Mellanöstern och Ukraina. Även Kina skyndar sig att utveckla AI-system för att analysera data, välja ut mål och hjälpa till vid beslutsfattande.

    Förespråkare av militär AI hävdar att det kommer att möjliggöra snabbare beslutsfattande, större precision och minskade offer i krigföring.

    Men förra året rapporterade Middle East Eye att ett israeliskt underrättelsekontor sa att det inte var möjligt att göra en mänsklig granskning av varje AI-genererat mål i Gaza. En annan källa sa till +972 att de personligen "skulle investera 20 sekunder för varje mål" som bara är en "gummistämpel" för godkännande.

    Den israeliska försvarsmaktens svar på den senaste rapporten säger "analytiker måste genomföra oberoende undersökningar, där de verifierar att de identifierade målen uppfyller de relevanta definitionerna i enlighet med internationell lag".

    När det gäller noggrannhet, hävdar den senaste +972-rapporten att Lavendel automatiserar processen för identifiering och korskontroll för att säkerställa att ett potentiellt mål är en högre Hamas militärfigur. Enligt rapporten har Lavender lättat på inriktningskriterierna för att inkludera lägre rankad personal och svagare bevisstandarder och gjorde fel i "ungefär 10 % av fallen".

    Rapporten hävdar också att en israelisk underrättelseofficer sa att på grund av meddelandet Where's Daddy? system, skulle mål bombas i deras hem "utan att tveka, som ett första alternativ", vilket leder till civila offer. Den israeliska armén säger att den "direkt avvisar påståendet om all policy att döda tiotusentals människor i deras hem".

    Regler för militär AI?

    I takt med att militär användning av AI blir vanligare har etiska, moraliska och juridiska problem till stor del varit en eftertanke. Det finns än så länge inga tydliga, universellt accepterade eller juridiskt bindande regler om militär AI.

    FN har diskuterat "dödliga autonoma vapensystem" i mer än tio år. Det här är enheter som kan fatta beslut om inriktning och skjuta utan mänsklig insats, ibland kända som "mördarrobotar". Förra året skedde vissa framsteg.

    FN:s generalförsamling röstade för ett nytt förslag till resolution för att säkerställa att algoritmer "inte får ha full kontroll över beslut som involverar dödande". I oktober förra året släppte USA också en deklaration om ansvarsfull militär användning av AI och autonomi, som sedan dess har godkänts av 50 andra stater. Det första toppmötet om ansvarsfull användning av militär AI hölls också förra året, tillsammans med Nederländerna och Republiken Korea.

    Sammantaget kämpar internationella regler för användningen av militär AI för att hålla jämna steg med staters och vapenföretags glöd för högteknologisk, AI-aktiverad krigföring.

    Inför det "okända"

    Vissa israeliska startups som tillverkar AI-aktiverade produkter gör enligt uppgift ett försäljningsargument av deras användning i Gaza. Ändå antyder rapportering om användningen av AI-system i Gaza hur långt kort AI faller för drömmen om precisionskrigföring, istället skapar allvarliga humanitära skador.

    Den industriella skala där AI-system som Lavender kan generera mål "förskjuter också effektivt människor som standard" i beslutsfattande.

    Viljan att acceptera AI-förslag med knappt någon mänsklig granskning vidgar också omfattningen av potentiella mål, vilket orsakar större skada.

    skapa ett prejudikat

    Rapporterna om Lavender och Habsora visar oss vad nuvarande militära AI redan kan göra. Framtida risker med militär AI kan öka ytterligare.

    Den kinesiske militäranalytikern Chen Hanghui har föreställt sig en framtida "slagfältssingularitet", till exempel, där maskiner fattar beslut och vidtar åtgärder i en takt som är för snabb för en människa att följa. I det här scenariot är vi kvar som lite mer än åskådare eller offer.

    En studie som publicerades tidigare i år lät ytterligare en varningssignal. Amerikanska forskare genomförde ett experiment där stora språkmodeller som GPT-4 spelade rollen som nationer i en wargaming-övning. Modellerna fastnade nästan oundvikligen i kapprustning och eskalerade konflikter på oförutsägbara sätt, inklusive användning av kärnvapen.

    Det sätt som världen reagerar på nuvarande användning av militär AI – som vi ser i Gaza – kommer sannolikt att skapa ett prejudikat för den framtida utvecklingen och användningen av tekniken.

    Tillhandahålls av The Conversation

    Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com