AI-genererad pornografi – känd som "deepfakes" – blir mer övertygande, sömlös och verklig. Kredit:Shutterstock
I januari i år, en ny app släpptes som ger användare möjligheten att byta ut ansikten i en video med ett annat ansikte som erhållits från ett annat foto eller video – liknande Snapchats "ansiktsbyte"-funktion. Det är en vardagsversion av den sorts högteknologiska datorgenererade bilder (CGI) vi ser i filmerna.
Du kanske känner igen den från en ung prinsessa Leias komeo i 2016 års Star Wars-film Rogue One , som använde en annan skådespelares kropp och filmer från den första Star Wars-filmen som skapades 39 år tidigare.
En Reddit-användare skapade en annan version av unga #PrincessLeia från #RogueOne i #FakeApp, vilket ser mer realistiskt ut. Den här tekniken är galen! https://t.co/FftqcepVYp pic.twitter.com/fUOad5k9ft
— 80Level (@EightyLevel) 30 januari, 2018
Nu, alla som har en kraftfull dator, en grafikprocessorenhet (GPU) och tid på deras händer kan skapa realistiska falska videor – så kallade "deepfakes" – med hjälp av artificiell intelligens (AI).
Låter kul, höger?
Problemet är att samma verktyg är tillgängliga för dem som försöker skapa pornografi utan samtycke av vänner, arbetskollegor, klasskamrater, ex-partner och helt främlingar – och lägg upp det online.
Utvecklingen av deepfakes
I december 2017, Moderkortet bröt historien om en Reddit-användare känd som "djupa förfalskningar", som använde AI för att byta ut ansikten på skådespelare i pornografiska videor med ansikten på välkända kändisar. En annan Reddit-användare skapade sedan skrivbordsapplikationen som heter FakeApp.
Det tillåter vem som helst – även de utan tekniska kunskaper – att skapa sina egna falska videor med hjälp av Googles TensorFlow maskininlärningsramverk med öppen källkod.
Tekniken använder en AI-metod som kallas "deep learning", vilket innebär att mata en dator med data som datorn sedan använder för att fatta beslut. När det gäller falsk porr, datorn kommer att bedöma vilka ansiktsbilder av en person som kommer att vara mest övertygande som ett ansiktsbyte i en pornografisk video.
Känd som "morf" porr, eller "parasitporr", falska sexvideor eller fotografier är inget nytt fenomen. Men det som gör deepfakes till ett nytt och oroande problem är att AI-genererad pornografi ser betydligt mer övertygande och verklig ut.
En annan form av bildbaserade sexuella övergrepp
Skapande, Att distribuera eller hota att distribuera falsk pornografi utan samtycke från den person vars ansikte visas i videon är en form av "bildbaserad sexuellt övergrepp" (IBSA). Även känd som "pornografi utan samtycke" eller "hämndporr", det är ett intrång i privatlivet och en kränkning av rätten till värdighet, sexuell autonomi och yttrandefrihet.
I ett fall av morfporr, en australiensisk kvinnas bilder stals från hennes konton på sociala medier, läggas på pornografiska bilder och sedan publiceras på flera webbplatser. Hon beskrev upplevelsen som att hon kände sig "fysiskt sjuk, äcklad, arg, försämrad, avhumaniserad."
Ändå är reaktionerna på denna typ av sexuella övergrepp fortfarande inkonsekventa. Reglering saknas i Australien, och på andra ställen.
Åtgärd enligt australisk straffrätt
Södra Australien, NSW, Victoria och ACT har specifika brott för bildbaserade sexuella övergrepp med straff på upp till fyra års fängelse. Södra Australien, NSW och ACT definierar uttryckligen en "intim" eller "invasiv" bild som inkluderar bilder som har ändrats eller manipulerats.
Jurisdiktioner utan specifika brott skulle kunna förlita sig på mer allmänna strafflagar. Till exempel, det federala telekommunikationsbrottet att "använda en transporttjänst för att hota, trakassera eller orsaka anstöt", eller brott från staten och territoriet som olaglig filmning, oanständighet, förfölja, voyeurism eller utpressning.
Men det är oklart om sådana lagar skulle gälla för fall av "falsk porr", vilket betyder att för närvarande, strafflagen ger ett inkonsekvent skydd för bildbaserade offer för sexuella övergrepp över hela Australien.
Regress enligt australisk civilrätt
Offren har liten möjlighet enligt upphovsrättslagen om de inte kan bevisa att de är ägare till bilden. Det är oklart om det betyder ägaren till ansiktsbilden eller ägaren till originalvideon. De kan ha bättre tur enligt ärekränkningslagen. Här måste käranden bevisa att svaranden publicerat falskt och nedsättande material som identifierar dem.
Att driva civilrättsliga tvister, dock, är tidskrävande och kostsamt. It will do little to stop the spread of non-consensual nude or sexual images on the internet. Också, Australian civil and criminal laws will be ineffective if the perpetrator is located overseas, or if the perpetrator is an anonymous content publisher.
Addressing the gap in legislation
The Australian Parliament is currently debating the Enhancing Online Safety (Non-Consensual Sharing of Intimate Images) Bill 2017. This bill, which is yet to become law, seeks to give the Office of the eSafety Commissioner the power to administer a complaints system and impose formal warnings, removal notices or civil penalties on those posting or hosting non-consensual intimate images.
Civil penalties are up to A$105, 000 for "end-users" (the individuals posting the images) or A$525, 000 for a social media, internet service or hosting service provider.
Viktigt, the proposed legislation covers images which have been altered, and so could apply to instances of deepfakes or other kinds of fake porn.
Prevention and response beyond the law
While clear and consistent laws are crucial, online platforms also play an important role in preventing and responding to fake porn. Platforms such as Reddit, Twitter and PornHub have already banned deepfakes. Dock, at the time of writing, the clips continue to be available on some of these sites, as well as being posted and hosted on other websites.
Read more:Facebook wants your nude photos to prevent 'revenge porn' – here's why you should be sceptical
A key challenge is that it is difficult for online platforms to distinguish between what is fake and what is real, unless victims themselves discover their images are online and contact the site to request those images be removed.
Yet victims may only become aware of the fake porn when they start receiving harassing communications, sexual requests, or are otherwise alerted to the images. Då, the harm is often already done. Technical solutions, such as better automated detection of altered imagery, may offer a way forward.
To adequately address the issue of fake porn, it is going to take a combination of better laws, cooperation from online platforms, as well as technical solutions. Like other forms of image-based sexual abuse, support services as well as prevention education are also important.
Denna artikel publicerades ursprungligen på The Conversation. Läs originalartikeln.