Virtuella karaktärer kan snart vara smartare än oss. Michelangelus/Shutterstock
Den mesta forskningen om etiken kring artificiell intelligens (AI) gäller dess användning för vapen, transport eller profilering. Även om farorna från en autonom, rasistisk stridsvagn inte kan underskattas, finns det en annan aspekt av allt detta. Hur är det med vårt ansvar gentemot de AI:er vi skapar?
Massivt multiplayer online-rollspel (som World of Warcraft) är pocketreality befolkade främst av icke-spelare karaktärer. För tillfället är dessa karaktärer inte speciellt smarta, men ge det 50 år så kommer de att bli det.
Förlåt? 50 år räcker inte? Ta 500. Ta 5 000 000. Vi har resten av evigheten på oss att uppnå detta.
Vill du ha datorer i planetstorlek? Du kan få dem. Vill du ha datorer gjorda av mänsklig hjärnvävnad? Du kan få dem. Så småningom tror jag att vi kommer har virtuella världar som innehåller karaktärer lika smarta som vi är – om inte smartare – och i full besittning av fri vilja. Vilket blir vårt ansvar gentemot dessa varelser? Vi kommer trots allt att vara de bokstavliga gudarna för de verkligheter där de lever, och kontrollerar deras världars fysik. Vi kan göra vad vi vill mot dem.
Så att veta allt det...ska vi?
Etiska svårigheter med fri vilja
Som jag har utforskat i min senaste bok, närhelst "borde" är inblandat, kliver etiken in och tar över – även för videospel. Den första frågan att ställa är om våra framtida spelkaraktärer är värda att betraktas som moraliska enheter eller helt enkelt är bitar i en databas. Om det senare är så behöver vi inte besvära vårt samvete med dem mer än vi skulle göra med tecken i en ordbehandlare.
Frågan är faktiskt omtvistad. Om vi skapar våra karaktärer för att vara fritt tänkande varelser, då måste vi behandla dem som om de är sådana – oavsett hur de kan se ut för en extern observatör.
Så är fallet, kan vi då stänga av våra virtuella världar? Att göra det kan vara att döma miljarder intelligenta varelser till icke-existens. Skulle det ändå vara OK om vi sparade en kopia av deras värld när vi avslutade den? Betyder den teoretiska möjligheten att vi kan återställa deras värld precis som den var att vi inte är faktiskt mörda dem? Vad händer om vi inte har den ursprungliga spelmjukvaran?
Kan vi med rätta orsaka dessa karaktärer lidande? Vi implementerar själva konceptet, så det här är inte så mycket en fråga om huruvida det är OK att plåga dem som det handlar om huruvida det är en grej att plåga dem. I moderna samhällen är standardpositionen att det är omoraliskt att få fritänkande individer att lida om de inte går med på det eller så är det för att rädda dem (eller någon annan) från något värre. Vi kan inte be våra karaktärer att samtycka till att födas in i en värld av lidande – de kommer inte att existera när vi skapar spelet.
Så, hur är det med alternativet "något värre"? Om du har fri vilja måste du vara välvillig, så du måste därför själv vara en moralisk varelse. Det betyder att du måste ha utvecklat moral, så det måste vara möjligt för dåliga saker att hända dig. Annars hade du inte kunnat reflektera över vad som är rätt eller fel för att utveckla din moral. Med andra ord, såvida inte dåliga saker händer finns det ingen fri vilja. Att ta bort den fria viljan från en varelse är liktydigt med att förstöra den varelse den var tidigare, så ja, vi måste tillåta lidande eller så är begreppet sapient karaktär en oxymoron.
Efterlivet?
Att acceptera att våra framtida karaktärer är fritänkande varelser, var skulle de passa in i en hierarki av betydelse? I allmänhet, givet ett rakt val mellan att rädda en sapient varelse (som ett litet barn) eller en bara kännande (som en hund), skulle folk välja det förra framför det senare. Med tanke på ett liknande val mellan att rädda en riktig hund eller ett virtuellt helgon, vilket skulle råda?
Tänk på att om dina karaktärer uppfattar sig själva som moraliska varelser men du inte uppfattar dem som sådana, kommer de att tycka att du är en idiot. Som Alphinaud Leveilleur, en karaktär i Final Fantasy XIV , snyggt uttrycker det (spoiler:efter att just ha upptäckt att hans värld skapades av handlingar av varelser som som en konsekvens inte betraktar honom som riktigt levande):"Vi definiera vårt värde, inte omständigheterna kring vår skapelse!"
Kommer vi att tillåta våra karaktärer att dö? Det är extrajobb att implementera konceptet. Om de lever för evigt, gör vi dem osårbara eller stoppar vi dem bara från att dö? Livet skulle inte vara särskilt roligt efter att ha fallit i en mixer, trots allt. Om de dör, flyttar vi dem till spelhimlen (eller helvetet) eller raderar vi dem helt enkelt?
Det är inte de enda frågorna vi kan ställa. Kan vi infoga idéer i deras huvuden? Kan vi förändra deras värld för att bråka med dem? Påtvingar vi dem vår moral eller låter vi dem utveckla sin egen (som vi kanske inte håller med om)? Det finns många fler.
I slutändan är den största frågan:ska vi skapa sapient karaktärer i första hand?
Nu har du märkt att jag har ställt många frågor här. Du kanske undrar vad svaren är.
Tja, det är jag också! Det är poängen med den här övningen. Mänskligheten har ännu inte en etisk ram för skapandet av verkligheter som vi är gudar av. Inget system av meta-etik finns ännu för att hjälpa oss. Vi måste reda ut det här innan vi bygger världar befolkade av varelser med fri vilja, oavsett om det är 50, 500, 5 000 000 år från nu eller imorgon. Det här är frågor till dig att svara.
Var dock försiktig med hur du gör det. Du kan skapa ett prejudikat.
Vi själva är verklighetens icke-spelare karaktärer.