Kredit:Spainter_vfx/Shutterstock.com
Filmer som t.ex 2001:A Space Odyssey , Blade Runner och Terminatorn förde oseriösa robotar och datorsystem till våra biodukar. Men nuförtiden, sådana klassiska science fiction-glasögon verkar inte så långt från verkligheten.
Alltmer, vi bor, arbeta och leka med beräkningstekniker som är autonoma och intelligenta. Dessa system inkluderar mjukvara och hårdvara med kapacitet för oberoende resonemang och beslutsfattande. De arbetar för oss på fabriksgolvet; de bestämmer om vi kan få ett bolån; de spårar och mäter våra aktivitets- och konditionsnivåer; de städar våra vardagsrumsgolv och klipper våra gräsmattor.
Autonoma och intelligenta system har potential att påverka nästan alla aspekter av vårt sociala, ekonomisk, politiska och privata liv, inklusive vardagliga aspekter. Mycket av detta verkar oskyldigt, men det finns anledning till oro. Beräkningsteknik påverkar alla mänskliga rättigheter, från rätten till liv till rätten till privatliv, yttrandefrihet till sociala och ekonomiska rättigheter. Så hur kan vi försvara mänskliga rättigheter i ett tekniskt landskap som alltmer formats av robotik och artificiell intelligens (AI)?
AI och mänskliga rättigheter
Först, det finns en verklig rädsla för att ökad maskinautonomi kommer att undergräva människors status. Denna rädsla förvärras av en otydlighet över vem som kommer att ställas till svars, oavsett om det är i juridisk eller moralisk mening, när intelligenta maskiner skadar. Men jag är inte säker på att fokus för vår oro för mänskliga rättigheter egentligen borde ligga hos oseriösa robotar, som det ser ut för närvarande. Snarare, vi borde oroa oss för mänsklig användning av robotar och artificiell intelligens och deras utplacering i orättvisa och ojämlika politiska, militär, ekonomiska och sociala sammanhang.
Denna oro är särskilt relevant när det gäller dödliga autonoma vapensystem (LAWS), ofta beskrivs som mördarrobotar. När vi går mot en AI -vapenkapplöpning, människorättsvetare och kampanjer som Christof Heyns, FN:s tidigare särskilda rapportör för utomrättsliga frågor, summariska eller godtyckliga avrättningar, rädsla för att användningen av LAWS kommer att sätta autonoma robotsystem till ansvar för beslut på liv och död, med begränsad eller ingen mänsklig kontroll.
AI revolutionerar också kopplingen mellan krigföring och övervakningsmetoder. Grupper som International Committee for Robot Arms Control (ICRAC) uttryckte nyligen sitt motstånd mot Googles deltagande i Project Maven, ett militärt program som använder maskininlärning för att analysera bilder från drönarövervakning, som kan användas för utomrättsliga mord. ICRAC vädjade till Google att se till att de uppgifter som samlas in om sina användare aldrig används för militära ändamål, gå med i protester från Googles anställda över företagets inblandning i projektet. Google meddelade nyligen att de inte kommer att förnya sitt kontrakt.
Under 2013, omfattningen av övervakningsmetoder framhävdes av Edward Snowdens avslöjanden. Dessa lärde oss mycket om hotet mot rätten till integritet och delning av data mellan underrättelsetjänster, statliga myndigheter och privata företag. Den senaste tidens kontrovers kring Cambridge Analyticas insamling av personuppgifter via användning av sociala medieplattformar som Facebook fortsätter att orsaka allvarliga farhågor, denna gång över manipulation och inblandning i demokratiska val som skadar rätten till yttrandefrihet.
Under tiden, kritiska dataanalytiker utmanar diskriminerande metoder förknippade med vad de kallar AI:s "white guy-problem". Detta är oron för att AI-system som tränas på befintliga data replikerar befintliga ras- och könsstereotyper som vidmakthåller diskriminerande metoder inom områden som polisarbete, rättsliga beslut eller anställning.
Tvetydiga bots
Beräkningsteknikens potentiella hot mot mänskliga rättigheter och fysiska, politisk och digital säkerhet lyftes fram i en nyligen publicerad studie om The Malicious Use of Artificial Intelligence. De farhågor som uttrycks i denna rapport från University of Cambridge måste tas på allvar. Men hur ska vi hantera dessa hot? Är mänskliga rättigheter redo för eran av robotik och AI?
Det pågår ständiga ansträngningar för att uppdatera befintliga principer för mänskliga rättigheter för denna era. Dessa inkluderar FN:s ramar och vägledande principer för företag och mänskliga rättigheter, försöker skriva en Magna Carta för den digitala tidsåldern och Future of Life Institutes Asilomar AI-principer, som identifierar riktlinjer för etisk forskning, efterlevnad av värderingar och ett engagemang för den långsiktiga nyttiga utvecklingen av AI.
Dessa ansträngningar är lovvärda men inte tillräckliga. Regeringar och statliga myndigheter, politiska partier och privata företag, speciellt de ledande teknikföretagen, måste förbinda sig till den etiska användningen av AI. Vi behöver också effektiv och verkställbar lagstiftningskontroll.
Oavsett vilka nya åtgärder vi inför, det är viktigt att erkänna att våra liv är alltmer intrasslade med autonoma maskiner och intelligenta system. Denna förveckling förbättrar människors välbefinnande inom områden som medicinsk forskning och behandling, i vårt transportsystem, inom socialvård och i ansträngningar för att skydda miljön.
Men på andra områden skapar denna förveckling oroande framtidsutsikter. Beräkningsteknik används för att se och spåra våra handlingar och beteenden, spåra våra steg, Vårt läge, vår hälsa, vår smak och vår vänskap. Dessa system formar mänskligt beteende och driver oss mot metoder för självövervakning som inskränker vår frihet och undergräver idéerna och idealen om mänskliga rättigheter.
Och häri ligger kärnan:förmågan till dubbel användning av beräkningsteknik suddar ut gränsen mellan välgörande och skadliga metoder. Vad mer, beräkningsteknik är djupt inblandad i de ojämlika maktförhållandena mellan enskilda medborgare, staten och dess myndigheter, och privata företag. Om den inte är kopplad till effektiva nationella och internationella system för kontroller och avvägningar, de utgör ett verkligt och oroande hot mot våra mänskliga rättigheter.
Denna artikel publicerades ursprungligen på The Conversation. Läs originalartikeln.