Är detta ansikte bara en sammansättning av datorbitar? Kredit:Michal Bednarek/Shutterstock.com
När system för artificiell intelligens börjar bli kreativa, de kan skapa fantastiska saker – och skrämmande sådana. Ta, till exempel, ett AI-program som låter webbanvändare komponera musik tillsammans med en virtuell Johann Sebastian Bach genom att skriva in toner i ett program som genererar Bach-liknande harmonier för att matcha dem.
Drivs av Google, appen fick mycket beröm för att den är banbrytande och rolig att leka med. Det väckte också kritik, och väckte oro för AI:s faror.
Min studie av hur framväxande teknologier påverkar människors liv har lärt mig att problemen sträcker sig bortom den visserligen stora oron över huruvida algoritmer verkligen kan skapa musik eller konst i allmänhet. Vissa klagomål verkade små, men det var verkligen inte, som observationer av att Googles AI bröt mot grundläggande regler för musikkomposition.
Faktiskt, ansträngningar för att få datorer att efterlikna beteendet hos verkliga människor kan vara förvirrande och potentiellt skadligt.
Imitationstekniker
Googles program analyserade tonerna i 306 av Bachs musikaliska verk, hitta relationer mellan melodin och tonerna som gav harmonin. Eftersom Bach följde strikta regler för sammansättning, programmet lärde sig faktiskt dessa regler, så det kunde tillämpa dem när användare lämnade sina egna anteckningar.
Själva Bach-appen är ny, men den underliggande tekniken är det inte. Algoritmer som tränats för att känna igen mönster och fatta sannolikhetsbeslut har funnits länge. Vissa av dessa algoritmer är så komplexa att människor inte alltid förstår hur de fattar beslut eller ger ett visst resultat.
AI-system är inte perfekta – många av dem förlitar sig på data som inte är representativa för hela befolkningen, eller som är påverkade av mänskliga fördomar. Det är inte helt klart vem som kan vara juridiskt ansvarig när ett AI-system gör ett fel eller orsakar problem.
Nu, fastän, Artificiell intelligens-teknik blir tillräckligt avancerad för att kunna approximera individers skriv- eller talstil, och även ansiktsuttryck. Det här är inte alltid dåligt:En ganska enkel AI gav Stephen Hawking möjligheten att kommunicera mer effektivt med andra genom att förutsäga de ord han skulle använda mest.
Mer komplexa program som efterliknar mänskliga röster hjälper personer med funktionsnedsättning – men kan också användas för att lura lyssnare. Till exempel, skaparna av Lyrebird, ett rösthärmande program, har släppt en simulerad konversation mellan Barack Obama, Donald Trump och Hillary Clinton. Det kan låta verkligt, men det utbytet hände aldrig.
Från bra till dåligt
I februari 2019, det ideella företaget OpenAI skapade ett program som genererar text som är praktiskt taget omöjlig att skilja från text skriven av människor. Den kan "skriva" ett tal i stil med John F. Kennedy, J.R.R. Tolkien i "Sagan om ringen" eller en elev som skriver en skoluppgift om det amerikanska inbördeskriget.
Texten som genereras av OpenAI:s mjukvara är så trovärdig att företaget har valt att inte släppa själva programmet.
Liknande tekniker kan simulera foton och videor. I början av 2018, till exempel, Skådespelaren och filmskaparen Jordan Peele skapade en video som verkade visa USA:s förre president Barack Obama säga saker som Obama faktiskt aldrig sa för att varna allmänheten om farorna med dessa tekniker.
I början av 2019, ett falskt nakenfoto av USA:s representant Alexandria Ocasio-Cortez cirkulerade på nätet. Tillverkade videor, ofta kallade "deepfakes, " förväntas användas alltmer i valkampanjer.
Kongressmedlemmar har börjat titta på denna fråga inför valet 2020. Det amerikanska försvarsdepartementet lär allmänheten hur man kan upptäcka manipulerade videor och ljud. Nyhetsorganisationer som Reuters börjar utbilda journalister för att upptäcka deepfakes.
Men, från min synvinkel, ett ännu större problem kvarstår:Användare kanske inte kan lära sig tillräckligt snabbt för att urskilja falskt innehåll eftersom AI-tekniken blir mer sofistikerad. Till exempel, när allmänheten börjar bli medveten om deepfakes, AI används redan för ännu mer avancerade bedrägerier. Det finns nu program som kan generera falska ansikten och falska digitala fingeravtryck, effektivt skapa den information som behövs för att tillverka en hel person – åtminstone i företags- eller statliga register.
Maskiner fortsätter att lära sig
Just nu, det finns tillräckligt många potentiella fel i dessa tekniker för att ge människor en chans att upptäcka digitala tillverkningar. Googles Bach-kompositör gjorde några misstag som en expert kunde upptäcka. Till exempel, när jag provade det, programmet tillät mig att gå in parallella femtedelar, ett musikintervall som Bach flitigt undvek. Appen bröt också mot musikaliska regler för kontrapunkt genom att harmonisera melodier i fel tonart. Liknande, OpenAI:s textgenererande program skrev ibland fraser som "bränder som händer under vatten" som inte var meningsfulla i deras sammanhang.
När utvecklare arbetar med sina skapelser, dessa misstag kommer att bli sällsynta. Effektivt, AI-tekniker kommer att utvecklas och lära sig. Den förbättrade prestandan har potential att ge många sociala fördelar – inklusive bättre hälsovård, eftersom AI-program hjälper till att demokratisera medicinutövningen.
Ge forskare och företag frihet att utforska, för att söka dessa positiva prestationer från AI-system, innebär att man öppnar upp risken för att utveckla mer avancerade sätt att skapa bedrägeri och andra sociala problem. Att kraftigt begränsa AI-forskningen kan stävja dessa framsteg. Men att ge gynnsam teknik utrymme att växa kostar inte mycket – och risken för missbruk, om man ska göra felaktig "Bach-liknande" musik eller för att lura miljoner, kommer sannolikt att växa på sätt som människor ännu inte kan förutse.
Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.