Upphovsman:CC0 Public Domain
Det brukade ta mycket tid och expertis att realistiskt förfalska videor. Inte längre.
I årtionden, autentiska videorenderingar sågs bara i sci-fi-filmer med stora budgetar som "Star Wars". Dock, tack vare ökningen av artificiell intelligens, doktorseffekter har blivit mer tillgängliga än någonsin, som forskare säger utgör ett hot mot den nationella säkerheten.
"Tills nyligen, vi har i stort sett kunnat lita på ljud (och) videoinspelningar, "sa Hany Farid, professor i datavetenskap vid Dartmouth College. Han sa att framsteg inom maskininlärning har demokratiserat tillgången till verktyg för att skapa sofistikerade och övertygande falska video och ljud.
"Det tar ingen fantasi att se hur detta kan vapenas för att störa val, att såga civil oro eller begå bedrägerier, Sa Farid.
Med presidentvalet 2020 på gång och USA:s försvarsbyrå oroade sig för doktorerade videor som vilseleder väljare, lagstiftare och utbildningsinstitutioner tävlar för att utveckla programvara som kan upptäcka och stoppa det som kallas deepfakes innan de ens når internet.
Deepfakes
Bred oro kring idén att videoförfalskningar började göra rubriker i slutet av 2017 när datorprogramvara användes för att överlagra kändisar till porr med hjälp av datorprogramvara.
Ett av de mest kända exemplen skapades av regissören Jordan Peeles produktionsbolag 2018. Videon visar tidigare president Barack Obama varna människor att inte tro på allt de ser på internet.
Dock, det är faktiskt inte Obama som pratar. Det är Peele som buktar den tidigare presidenten.
Varning:Videon nedan innehåller grovt språk för att göra sin poäng och kanske inte är lämpligt för unga tittare.
Sedan dess, försvarsdepartementet, genom Defense Advanced Research Projects Agency (DARPA), började utveckla sätt att upptäcka när en video är en deepfake.
En talesman för byrån sa i mars att även om många videomanipulationer utförs för skojs skull, andra är mycket farligare eftersom de kan användas för att sprida propaganda och desinformation.
Organisationen försöker utveckla flaggor och filter online som hindrar manipulerat innehåll från att laddas upp till internet.
Det tar bara cirka 500 bilder eller 10 sekunder med video för att skapa en realistisk djupfake, enligt Siwei Lyu, en forskare som arbetar med försvarsdepartementet för att utveckla mjukvara för att upptäcka och förhindra spridning av djupa förfalskningar.
Lyu sa att alla som lägger upp foton på sociala nätverkssajter som Instagram riskerar att bli djupa.
Programvarulösningar
Den första mjukvaran som Lyu och hans team av forskare vid University of Albany introducerade förra året skulle kunna upptäcka en djupt falsk video på ett ögonblick, bokstavligen, genom att analysera hur ofta de simulerade ansiktena blinkar - eller inte.
"Vi upptäckte att ämnena (i deepfake -videor) inte blinkar särskilt mycket, och ibland inte alls, "Sa Lyu." Vi frågade sedan varför detta händer. "
Forskarna fann att programvaran som används för att göra deepfakes ofta beror på foton som finns tillgängliga på internet. Det finns inte många bilder tillgängliga av högprofilerade människor med slutna ögon, så att de animerade ämnena i de falska videorna inte blinkar, Sa Lyu.
När tillverkarna av deepfakes började få vind i den nya programvaran, forskarna utvecklade andra metoder för att upptäcka deepfakes som att använda algoritmer som upptäcker onaturliga rörelser mellan ansikten och huvuden samt programvara som analyserar bilder för förlust av subtila detaljer.
"Huden på det djupfake-genererade ansiktet tenderar att vara alltför slät, och några av hår- och tänderna går förlorade, "Sa Lyu." Om du tittar närmare på tänderna, de ser mer ut som ett helt vitt block snarare än enskilda tänder. "
Forskare vid University of Washington experimenterar också med deepfake -teknik. Skolan räknade ut hur man gör ljudklipp till en läppsynkroniserad video av personen som talar dessa ord 2017.
Kriminalisering
Sent i fjol, Senator Ben Sasse (R-Neb.) Presenterade ett lagförslag för kongressen som skulle straffa människor för det onda skapandet och spridningen av djupa förfalskningar. Notan, som infördes dagen före regeringens avstängning, flög under radarn och dog. Men Sasses kontor planerar att återinföra det.
USA Today kontaktade Sasse för mer information.
Senatorn sa i en intervju med radiovärden Glenn Beck nyligen att den "perfekta stormen av djupa förfalskningar" kommer snart.
Delstaten New York införde en proposition 2018 som skulle straffa människor som skapar digitala videor av ämnen utan deras samtycke.
Trots oro över de hypotetiska farorna, missbruk av deepfakes har ännu inte setts utanför vuxenfilmer. The Verge published a report in March that questions whether technology for swapping faces is even a major threat seeing as though it has been widely available for years.
Lyu said that he's doubtful that deepfakes can start a war, and it is unlikely that they will have a long-lasting effect on society as people become increasingly aware of the phenomenon.
Lyu suggested that people may even become desensitized by them.
Perception-altering technology was used in April to break down language barriers in a global malaria awareness campaign featuring David Beckham.
The charity Malaria No Moreposted a video on YouTube highlighting how it used deepfake tech to effectively lip-sync the video of Beckham with the voices of several other people.
To create the 55-second ad, the nonprofit used visual and voice-altering tech to make Beckham appear multilingual. His speech begins in English, then transitions to eight other languages through dubbing.
I dag, we live in a world in which millions of real people follow computer-generated influencers on social media and don't even know it at the same time governments have worked to develop animated news anchors that have human-like movements.
One of the clearest examples of real humans adapting to unreal computer-generated people is Lil Miquela, a digitally created "it-girl" with 1.5 million followers on Instagram that she interacts with via direct messages.
Despite what's in her photo captions, she's not "daydreaming" or partying at Coachella. She's fake, but her followers don't care. They like and comment on her pictures as if she's a real person.
AI generated humans have also begun showing up on television.
The Chinese government-run news agency Xinhua began testing out AI news anchors in 2018, a move it claims as the first in the world.
At first glance, the virtual newsman appears to be an ordinary person with facial expressions and movements that correspond with his speaking voice.
But seconds into the video, it's apparent that he's not real.
"I will work tirelessly to keep you informed as texts will be typed into my system uninterrupted, " the news anchor said monotonically in an introductory video. "The development of the media industry calls for continuous innovation and deep integration with the international advanced technologies."
The agency's first fake female news anchor went live in February and she appears to be even more realistic.
(c) USA USA idag
Distribueras av Tribune Content Agency, LLC.