Världen har förändrats sedan sci-fi-författaren Asimov 1942 skrev sina tre regler för robotar
Årtionden efter att Isaac Asimov först skrev sina lagar för robotar, deras ständigt växande roll i våra liv kräver en radikal ny uppsättning regler, Jurist- och AI-experten Frank Pasquale varnade på torsdagen.
Världen har förändrats sedan sci-fi-författaren Asimov 1942 skrev sina tre regler för robotar, inklusive att de aldrig ska skada människor, och dagens allestädes närvarande datorer och algoritmer kräver uppdaterade mått.
Enligt Pasquale, författare till "The Black Box Society:The Secret Algorithms Behind Money and Information", fyra nya juridiskt inspirerade regler bör tillämpas på robotar och AI i våra dagliga liv.
"Den första är att robotar bör komplettera snarare än ersätta proffs", sa Pasquale till AFP vid sidan av en robotkonferens vid Vatikanens påvliga vetenskapsakademi.
"Istället för att ha en robotläkare, du ska hoppas att du har en läkare som verkligen förstår hur AI fungerar och som får riktigt bra råd från AI, men i slutändan är det en läkares beslut att bestämma vad man ska göra och vad man inte ska göra."
"Det andra är att vi måste stoppa robotkapprustning. Det finns många människor just nu som investerar i krigsrobotar, militära robotar, polisrobotar."
Inga humanoider
Pasquale, en juridiklektor vid University of Maryland, säger att det är viktigt att alla investeringar i militär robotik eller AI ska ge vissa fördelar som "inte kommer att bara omedelbart avbrytas av dina fiender."
"Det är bara deprimerande, det är pengar i ett hål, du bygger en robot som kan säga om min robot kan säga om din robot kan säga om min robot är på väg att attackera. Det tar bara aldrig slut."
Den tredje, och mest kontroversiella, regeln är inte att göra mänskliga robotar eller AI, säger Pasquale, citerar exemplet med en Google-assistent som heter Duplex som ringde folk för att bekräfta hotellbokningar utan att berätta för dem att de pratade med en dator.
Robotar kan se humanoida ut "bara om det är helt nödvändigt för uppgiften, sa Pasquale
"Det kom en omedelbar motreaktion till det eftersom folk trodde att det var Google som försökte släppa ut sina maskiner som en människa och jag tror att förfalskningsprincipen är den viktigaste, att vi inte ska förfalska mänskligheten."
Robotar kan se humanoida ut "bara om det är helt nödvändigt för uppgiften, sa Pasquale, som "vårdrobotar eller sexrobotar".
Den fjärde och sista lagen är att varje robot eller AI ska vara "tillskriven till eller ägd av en person eller ett företag som består av personer för att... vi vet hur man straffar människor men vi vet inte hur man straffar maskiner."
Tvåstegsteknik
"Om vi har drönare som flyger runt platsen som är autonoma, bilar som är autonoma, bots online som talar på Twitter eller i finanshandel med aktier, alla dessa måste tillskrivas en person."
"Det finns företag som Facebook där de bara bötfäller företaget men de tvingar aldrig någon person att ge upp pengar eller fängslas för att ha gjort något fel. Och det är ett problem.
"Vi har redan ett problem med företag och om vi tillåter robotar att vara där ute utan att vara hänförliga till en person eller ett företag blir det bara värre, sa Pasquale, vars bok "New Laws of Robotics" kommer att publiceras av Harvard University Press.
Det som till varje pris måste undvikas är tvåstegsteknik, som föreslagits av Boeing för deras 737-MAX flygplan, grundstöts efter att hundratals dog i två krascher som skylldes på att en sensor gick sönder på grund av ett programvarufel.
"De tog ett beslut på en mycket hög nivå att de skulle tillåta flygbolag att köpa en andra sensor men det skulle vara en extra kostnad, Jag tror det var 80, 000 dollar extra per plan, och det förebådar massor av problem för mig."
"En del av vad lagen måste göra är att gå in och säga att vissa av dessa fynd vi inte kommer att tillåta, vi kommer att säga att vi har en standard för att flyga, det är en enda standard, det är inte så att jag behöver kolla upp om Ryanair, American Airlines eller Lufthansa köpte den extra sensorn, för det är galenskap."
© 2019 AFP