• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Robotforskare har en skyldighet att förhindra autonoma vapen

    Robotik förändras snabbt genom framsteg inom artificiell intelligens. Och fördelarna är utbredda:Vi ser säkrare fordon med möjlighet att automatiskt bromsa i en nödsituation, robotarmar som omvandlar fabrikslinjer som en gång var offshored och nya robotar som kan göra allt från att handla livsmedel till att leverera receptbelagda läkemedel till människor som har problem med att göra det själva.

    Men vår ständigt växande aptit för intelligenta, autonoma maskiner utgör en mängd etiska utmaningar.

    Snabba framsteg har lett till etiska dilemman

    Dessa idéer och mer virvlade runt när jag och mina kollegor träffades i början av november vid en av världens största autonoma robotfokuserade forskningskonferenser-IEEE International Conference on Intelligent Robots and Systems. Där, akademiker, företagsforskare, och regeringsforskare presenterade utvecklingen av algoritmer som gör att robotar kan fatta egna beslut.

    Som med all teknik, utbudet av framtida användningsområden för vår forskning är svårt att föreställa sig. Det är ännu mer utmanande att förutsäga med tanke på hur snabbt detta område förändras. Ta, till exempel, en dators förmåga att identifiera objekt i en bild:2010, den senaste tekniken var framgångsrik bara ungefär hälften av tiden, och det fastnade där i åratal. I dag, fastän, de bästa algoritmerna som visas i publicerade artiklar har nu 86% noggrannhet. Bara detta framsteg gör att autonoma robotar kan förstå vad de ser genom kameralinserna. Det visar också den snabba utvecklingen under det senaste decenniet på grund av utvecklingen inom AI.

    Denna typ av förbättringar är en verklig milstolpe ur ett tekniskt perspektiv. Medan man tidigare skulle behöva granska massor av videofilmer man skulle behöva otroligt många timmar, nu kan sådana data snabbt och exakt analyseras av ett datorprogram.

    Men det ger också upphov till ett etiskt dilemma. När man tar bort människor från processen, antagandena som ligger till grund för besluten rörande integritet och säkerhet har ändrats i grunden. Till exempel, användningen av kameror på allmänna gator kan ha väckt integritetshänsyn för 15 eller 20 år sedan, men att lägga till exakt ansiktsigenkänningsteknik förändrar dramatiskt dessa integritetskonsekvenser.

    Lätt att modifiera system

    När man utvecklar maskiner som kan fatta egna beslut - vanligtvis kallade autonoma system - är de etiska frågorna som uppstår utan tvekan mer oroande än de inom objektigenkänning. AI-förbättrad autonomi utvecklas så snabbt att funktioner som en gång var begränsade till högkonstruerade system nu är tillgängliga för alla med en hushållsverktygslåda och viss datorupplevelse.

    Människor utan bakgrund inom datavetenskap kan lära sig några av de mest toppmoderna verktygen för artificiell intelligens, och robotar är mer än villiga att låta dig köra dina nyförvärvade maskininlärningstekniker på dem. Det finns onlineforum fyllda med människor som är ivriga att hjälpa någon att lära sig hur man gör detta.

    Med tidigare verktyg, det var redan lätt nog att programmera din minimalt modifierade drönare för att identifiera en röd påse och följa den. Nyare objektdetekteringsteknik låser upp möjligheten att spåra en rad saker som liknar mer än 9, 000 olika objekttyper. Kombinerat med nyare, mer manövrerbara drönare, det är inte svårt att föreställa sig hur lätt de kan utrustas med vapen. Vad ska hindra någon från att fästa ett sprängämne eller ett annat vapen till en drönare utrustad med denna teknik?

    Med hjälp av en mängd olika tekniker, autonoma drönare är redan ett hot. De har fångats med att släppa sprängämnen på amerikanska trupper, stänga av flygplatser och användas i ett mordförsök på Venezuelas ledare Nicolas Maduro. De autonoma system som håller på att utvecklas just nu kan göra iscensättningen av sådana attacker lättare och mer förödande.

    Rapporter tyder på att Islamiska staten använder drönare på hyllan, varav några används för bombningar.

    Reglerings- eller granskningsnämnder?

    För ungefär ett år sedan, en grupp forskare inom artificiell intelligens och autonom robotik utfärdar ett löfte om att avstå från att utveckla dödliga autonoma vapen. De definierade dödliga autonoma vapen som plattformar som kan ”välja ut och engagera mål utan mänskligt ingripande”. Som robotforskare som inte är intresserad av att utveckla autonoma inriktningstekniker, Jag kände att löftet missade kärnan i faran. Den förklarade viktiga etiska frågor som måste tas upp, särskilt de i den breda korsningen av drönare som kan vara antingen godartade eller våldsamma.

    För en, forskarna, företag och utvecklare som skrev tidningarna och byggde programvaran och enheterna gör i allmänhet inte det för att skapa vapen. Dock, de kan oavsiktligt aktivera andra, med minimal expertis, att skapa sådana vapen.

    Vad kan vi göra för att hantera denna risk?

    Reglering är ett alternativ, och en som redan används för att förbjuda flygdrönare nära flygplatser eller runt nationalparker. De är hjälpsamma, men de hindrar inte skapandet av vapenvapen. Traditionella vapenregler är inte en tillräcklig mall, antingen. De skärper i allmänhet kontrollerna på källmaterialet eller tillverkningsprocessen. Det skulle vara nästan omöjligt med autonoma system, där källmaterialet är allmänt delad datorkod och tillverkningsprocessen kan ske hemma med hjälp av komponenter från hyllan.

    Ett annat alternativ skulle vara att följa i biologernas fotspår. År 1975, de höll en konferens om de potentiella riskerna med rekombinant DNA vid Asilomar i Kalifornien. Där, experter gick med på frivilliga riktlinjer som skulle styra det framtida arbetets gång. För autonoma system, ett sådant resultat verkar osannolikt vid denna tidpunkt. Många forskningsprojekt som kan användas vid utveckling av vapen har också fredliga och otroligt användbara resultat.

    Ett tredje val skulle vara att inrätta självstyrande organ på organisationsnivå, till exempel de institutionella granskningsnämnder som för närvarande övervakar studier om mänskliga ämnen på företag, universitet och statliga laboratorier. Dessa styrelser överväger fördelarna för befolkningen som är involverade i forskningen och hantverksmetoder för att mildra potentiella skador. Men de kan bara reglera forskning som gjorts inom deras institutioner, vilket begränsar deras omfattning.

    Fortfarande, ett stort antal forskare skulle falla under dessa styrelsers ansvarsområde - inom det autonoma robotikforskningsgemenskapen, nästan varje presentatör vid tekniska konferenser är medlemmar i en institution. Forskningsgranskningsnämnder skulle vara ett första steg mot självreglering och kan flagga projekt som kan vapenas.

    Lev med faran och löftet

    Många av mina kollegor och jag är glada över att utveckla nästa generations autonoma system. Jag känner att potentialen för gott är för lovande för att ignorera. Men jag är också orolig för de risker som ny teknik innebär, särskilt om de utnyttjas av onda människor. Men med en noggrann organisation och informerade samtal idag, Jag tror att vi kan arbeta för att uppnå dessa fördelar samtidigt som vi begränsar risken för skada.

    Denna artikel publiceras från The Conversation under en Creative Commons -licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com