Kredit:CC0 Public Domain
I HBO -serien Westworld , robotar designade för att visa känslor, känna smärta, och dö som människor befolkar en vidsträckt nöjespark i västerländsk stil för rika gäster som betalar för att förverkliga sina fantasier. Allt eftersom föreställningen fortskrider, och robotarna lär sig mer om världen där de lever, de börjar inse att de är leksakerna för den person som programmerade dem.
Tittarna kan dra slutsatsen att människor måste ha råd med robotar med så sofistikerad artificiell intelligens – som de i Westworld — Samma etiska skydd som vi ger varandra. Men Westworld är ett fiktivt tv-program. Och robotar med människors kognitiva sofistik existerar inte.
Ändå innebär framsteg inom artificiell intelligens från universitet och teknikföretag att vi är närmare än någonsin att skapa maskiner som är "ungefär lika kognitivt sofistikerade som möss eller hundar, säger John Basl, som är biträdande professor i filosofi vid Northeastern University. Han hävdar att dessa maskiner förtjänar samma etiska skydd som vi ger till djur som deltar i forskning.
"Mardrömsscenariot är att vi skapar ett maskinsinne, och utan att veta, gör något åt det som är smärtsamt, " säger Basl. "Vi skapar en medveten varelse och får den sedan att lida."
Djurvårds- och användningskommittéer granskar noggrant vetenskaplig forskning för att säkerställa att djur inte får lida onödigt, och standarderna är ännu högre för forskning som involverar mänskliga stamceller, säger Basl.
När forskare och ingenjörer kommer närmare att skapa artificiellt intelligenta maskiner som är medvetna, forskarsamhället behöver bygga en liknande ram för att skydda dessa intelligenta maskiner från lidande och smärta, för, säger Basl.
"Vanligtvis väntar vi tills vi har en etisk katastrof, och skapa regler efteråt för att förhindra att det händer igen, " säger Basl. "Vi säger att vi måste börja tänka på det här nu, innan vi får en katastrof. "
Basl och hans kollega vid University of California, Riverside, föreslå skapandet av tillsynskommittéer – sammansatta av kognitionsforskare, designers av artificiell intelligens, filosofer, och etikister - att noggrant utvärdera forskning som involverar artificiell intelligens. Och de säger att det är troligt att sådana kommittéer kommer att bedöma all aktuell forskning om artificiell intelligens som tillåten.
Men en filosofisk fråga ligger i hjärtat av allt detta:Hur ska vi veta när vi har skapat en maskin som kan uppleva glädje och lidande, speciellt om den maskinen inte kan kommunicera dessa känslor till oss?
Det finns inget enkelt svar på denna fråga, Basl säger, delvis för att forskare inte är överens om vad medvetandet egentligen är.
Vissa människor har en "liberal" syn på medvetandet, säger Basl. De tror att allt som krävs för att medvetandet ska existera är "välorganiserad informationsbehandling, " och ett sätt att uppmärksamma och planera på lång sikt. Människor som har mer "konservativa" åsikter, han säger, kräver att robotar har specifika biologiska egenskaper som en hjärna som liknar den hos ett däggdjur.
Vid denna tidpunkt, Basl säger, det är inte klart vilken uppfattning som kan visa sig vara korrekt, eller om det finns ett annat sätt att definiera medvetande som vi inte har övervägt ännu. Men, om vi använder den mer liberala definitionen av medvetande, forskare kanske snart kan skapa intelligenta maskiner som kan känna smärta och lidande, och som förtjänar etiskt skydd, Säger Basl.
"Vi kan vara väldigt långt borta från att skapa en medveten AI, eller så kan vi vara nära, " säger Basl. "Vi bör vara förberedda ifall vi är nära."