En ny rapport från RAND Corporation konstaterar att artificiell intelligens har potential att höja grunderna för kärnvapenavskräckning till år 2040.
Medan AI-kontrollerade domedagsmaskiner anses osannolika, riskerna med artificiell intelligens för kärnsäkerhet ligger istället i dess potential att uppmuntra människor att ta potentiellt apokalyptiska risker, enligt tidningen.
Under det kalla kriget, villkoret av ömsesidigt säkerställd förstörelse upprätthöll en orolig fred mellan supermakterna genom att säkerställa att varje attack skulle mötas av en förödande vedergällning. Ömsesidigt säkerställd förstörelse uppmuntrade därigenom strategisk stabilitet genom att minska incitamenten för båda länderna att vidta åtgärder som kan eskalera till ett kärnvapenkrig.
Den nya RAND-publikationen säger att under kommande decennier, artificiell intelligens har potential att urholka villkoret för ömsesidigt säker förstörelse och undergräva strategisk stabilitet. Förbättrade sensorteknologier skulle kunna introducera möjligheten att vedergällningsstyrkor som ubåts- och mobilmissiler skulle kunna riktas mot och förstöras.
Nationer kan frestas att eftersträva first-strike-kapacitet som ett sätt att få förhandlingseffekt över sina rivaler även om de inte har för avsikt att utföra en attack, säger forskare. Detta undergräver den strategiska stabiliteten eftersom även om staten som har dessa förmågor inte har för avsikt att använda dem, det kan motståndaren inte vara säker på.
"Kopplingen mellan kärnvapenkrig och artificiell intelligens är inte ny, i själva verket har de två en sammanflätad historia, sa Edward Geist, medförfattare på uppsatsen och biträdande policyforskare vid RAND Corporation, en ideell organisation, opartisk forskningsorganisation. "Mycket av den tidiga utvecklingen av AI gjordes till stöd för militära ansträngningar eller med militära mål i åtanke."
Han sa att ett exempel på sådant arbete var Survivable Adaptive Planning Experiment på 1980-talet som försökte använda AI för att översätta spaningsdata till nukleära inriktningsplaner.
Under slumpmässiga omständigheter, artificiell intelligens skulle också kunna förbättra strategisk stabilitet genom att förbättra noggrannheten i intelligensinsamling och analys, enligt tidningen. Även om AI kan öka sårbarheten hos andra anfallsstyrkor, förbättrad analys för att övervaka och tolka motstridiga handlingar kan minska felberäkningar eller feltolkningar som kan leda till oavsiktlig eskalering.
Forskare säger att med tanke på framtida förbättringar, det är möjligt att AI-system så småningom kommer att utveckla kapacitet som, medan felbar, skulle vara mindre felbenägna än deras mänskliga alternativ och därför stabiliseras på lång sikt.
"Vissa experter fruktar att ett ökat beroende av artificiell intelligens kan leda till nya typer av katastrofala misstag, sa Andrew Lohn, medförfattare på tidningen och biträdande ingenjör på RAND. "Det kan finnas press att använda AI innan den är tekniskt mogen, eller det kan vara mottagligt för kontradiktorisk subversion. Därför, Att upprätthålla strategisk stabilitet under de kommande decennierna kan visa sig vara extremt svårt och alla kärnvapenmakter måste delta i odlingen av institutioner för att hjälpa till att begränsa kärnkraftsrisken."
RAND-forskare baserade sitt perspektiv på information som samlats in under en serie workshops med experter inom kärnkraftsfrågor, statliga avdelningar, AI-forskning, AI-policy och nationell säkerhet.
"Kommer artificiell intelligens att öka risken för kärnvapenkrig?" finns på http://www.rand.org.
Perspektivet är en del av ett bredare arbete för att föreställa sig kritiska säkerhetsutmaningar i världen 2040, med tanke på effekterna av politiska, teknologisk, social, och demografiska trender som kommer att forma dessa säkerhetsutmaningar under de kommande decennierna.
Finansieringen av initiativet Security 2040 kom från gåvor från RAND-supportrar och inkomster från verksamheten.
Forskningen utfördes inom RAND Center for Global Risk and Security, som arbetar över hela RAND Corporation för att utveckla multidisciplinär forskning och policyanalys som handlar om systemrisker för global säkerhet. Centret bygger på RANDs expertis för att komplettera och utöka RAND-forskningen inom många områden, inklusive säkerhet, ekonomi, hälsa, och teknik.