Upphovsman:CC0 Public Domain
Oavsett om det är en video som visar någon annans ansikte på en annan kropp eller tidigare president Barack Obama säger saker han inte riktigt sa, "deepfakes" är nu en sak.
En annan populär användning av sådana manipulerade videor:falsk porr, med alla från skådespelerskan Scarlett Johansson till eventuellt alla vars bilder finns tillgängliga online.
Johansson, som omedvetet har medverkat i en förment läckt pornografisk video som Washington Post säger har visats mer än 1,5 miljoner gånger på en stor porrsajt, känner att situationen är hopplös.
"Ingenting kan hindra någon från att klippa och klistra in min bild eller någon annans på en annan kropp och få den att se så kusligt realistisk ut som önskat, "sa hon till Posta i en berättelse som publicerades för några dagar sedan. "Internet är ett stort maskhål av mörker som äter sig själv."
Det är därför forskare jobbar hårt på att försöka ta reda på sätt att upptäcka sådan falskhet, inklusive på SRI International i Menlo Park.
Manipulering av videor brukade vara filmer, gjort av Disney, Pixar och andra, sa Bob Bolles, programdirektör vid AI -centrets uppfattningsprogram på SRI. "Nu blir ansiktsbytesappar bättre och bättre."
Bolles visade nyligen upp hur han och hans team försöker upptäcka när video har manipulerats.
Teamet letar efter inkonsekvenser mellan video och ljudspår - till exempel titta på om en persons läpprörelser matchar videon. Tänk på videor som inte är lika uppenbara som de gamla, dåligt dubbade kung fu -filmer.
Teamet försöker också upptäcka ljud som kanske inte vibrerar med bakgrunden, sa Aaron Lawson, assisterande direktör för tallabbet på SRI. Till exempel, videon kan visa en ökenplats men efterklang kan indikera att ljudet spelades in inomhus.
"Vi behöver en uppsättning tester" för att hänga med i hackare som kommer att fortsätta räkna ut nya sätt att fortsätta lura människor, Sa Bolles.
SRI -teamet är bara en av många bland organisationerna, universitet och företag som arbetar för att försöka upptäcka och till och med spåra djuptryck under ett DARPA -program som heter MediFor, vilket är en förkortning för medieforensics. Matt Turek, programdirektör för MediFor vid Defense Advanced Research Projects Agency i Washington, D.C., sa att 14 huvudentreprenörer arbetar med projektet, som startade sommaren 2016. Dessa entreprenörer har underleverantörer som arbetar på MediFor, för.
"Det har skett en betydande förändring under det senaste året eller så då automatiska manipulationer har blivit mer övertygande, "Turek sa. Konstgjord intelligens och maskininlärning har hjälpt till att göra verktyg för att skapa djupfaker mer kraftfulla, och forskare använder AI för att försöka slå tillbaka.
"Utmaningen är att skapa algoritmer för att hänga med och ligga före tekniken som finns där ute, Sa Turek.
DARPA hoppas att frukterna av MediFor -programmet kommer att distribueras långt och brett, plockade upp av teknikföretag som Facebook och YouTube, som hanterar en stor bråkdel av världens användargenererade videor.
Till exempel, en video publicerad på YouTube av BuzzFeed i april, med komikern och skådespelaren Jordan Peele som buktar för Obama - med den före detta presidenten som till synes kallar president Donald Trump för en expletiv - har mer än 5,3 miljoner visningar.
Turek bockade av för andra möjliga användningsområden för djuptillverkningar, till exempel att felaktigt framställa produkter som säljs online, eller att fejka försäkringsbolag över bilolyckor. Han sa att det finns bevis för att forskare använder manipulerade bilder så att deras vetenskapliga resultat kan publiceras. Och han förutspår det så småningom, verktyg kan bli så bra att en serie djuphandlingar kommer att kunna övertyga människor om viktiga händelser som inte hände - t ex konspirationsteoretikerna.
"Deepfakes kan förändra hur vi litar på bild och video som ett samhälle, Sa Turek.
© 2019 The Mercury News (San Jose, Kalifornien.)
Distribueras av Tribune Content Agency, LLC.