• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Att undersöka en videos förändringar över tid hjälper till att flagga deepfakes

    Stora förändringar från en bildruta till nästa kan signalera problem. Kredit:Jesse Milan/Flickr, CC BY

    Det brukade vara så att endast Hollywood-produktionsbolag med djupa fickor och team av skickliga artister och tekniker kunde göra deepfake-videor, realistiska påhitt som visas för att visa människor som gör och säger saker som de aldrig faktiskt har gjort eller sagt. Inte längre – programvara som är fritt tillgänglig online låter alla som har en dator och lite tid på sina händer skapa övertygande falska videor.

    Oavsett om det används för personlig hämnd, att trakassera kändisar eller att påverka opinionen, deepfakes gör det urgamla axiomet att "se är att tro".

    Mitt forskarteam och jag vid University of Southern California Information Sciences Institute utvecklar sätt att se skillnaden mellan realistiska förfalskningar och äkta videor som visar faktiska händelser när de hände. Vår senaste forskning har hittat ett nytt och uppenbarligen mer exakt sätt att upptäcka deepfake-videor.

    Att hitta bristerna

    Generellt, olika deepfake-algoritmer fungerar genom att använda maskininlärningstekniker för att analysera bilder av målet, identifiera nyckelelement i ansiktsuttryck som näsan, mungiporna, ögonens placering och så vidare. De använder den informationen för att syntetisera nya bilder av den personens ansikte och sätta ihop dem för att skapa en video av målet som ser realistisk ut men är falsk.

    De flesta nuvarande metoderna för att upptäcka djupförfalskningar innebär att man tittar på varje bildruta i en video separat, antingen manuellt eller med hjälp av en detektionsalgoritm, för att upptäcka små brister som bildtillverkningsprocessen lämnat. Om det finns tillräckligt med bevis för manipulering i tillräckligt många ramar, videon anses vara falsk.

    Dock, Deepfake-skapare har börjat använda stora mängder bild- och videokomprimering för att sudda ut sina resultat, dölja alla artefakter som kan avslöja deras falskhet.

    Tittar på sekvenser, inte enstaka ramar

    Vår metod försöker komma runt detta bedrägeri genom att ta ett annat tillvägagångssätt. Vi extraherar alla bildrutor från en video och identifierar områdena som visar målets ansikte. Då vi, i själva verket, stapla alla dessa ansiktsbilder ovanpå varandra, se till att näsan, ögon och mun är alla i linje mellan varje bildruta. Detta eliminerar effekterna av huvudrörelser eller kameravinkelförskjutningar i videon.

    En algoritm identifierar ansiktselement i en bildruta från en video. Kredit:Wael Abd-Almageed, CC BY-ND

    Sedan, istället för att titta på varje ansiktsbild individuellt, vi letar efter inkonsekvenser i hur olika delar av ansiktet rör sig från ram till ram över tiden. Det är ungefär som att sätta upp en blädderbok för barn och sedan titta efter konstiga hopp i sekvensen. Vi har funnit att denna metod är mer exakt, delvis för att vi kan identifiera fler bevis på falskhet än när vi tittar på varje bildruta ensam.

    Specifikt, vi upptäckte djupförfalskningar 96 % av tiden, även när bilderna och videorna är kraftigt komprimerade. Hittills har vi bara funnit den noggrannheten i den enda storskaliga databasen som är tillgänglig för akademiska forskare för att utvärdera deras deepfake-detektionstekniker, som kallas FaceForensics++. Den datamängden innehåller videor från tre av de mest framträdande deepfake-generationsalgoritmerna, Face2Face, FaceSwap och DeepFake, även om fejkare alltid förbättrar sina metoder.

    Deepfake-detektion är en kapprustning, där fejkare och sanningssökare kommer att fortsätta att utveckla sina respektive teknologier. Därför, Jobbet att begränsa deras effekter på samhället som helhet kan inte bara ankomma på forskare. Forskare och experimenterande måste fortsätta arbeta, självklart, men det är inte allt. Jag tror att sociala nätverksplattformar också bör arbeta för att utveckla mjukvara och policyer som bromsar spridningen av desinformation av alla slag – oavsett om de manipulerar en persons ansikte eller visar hela kroppen röra sig på ett sätt som de aldrig kunde.

    De röda områdena är där algoritmen upptäcker inkonsekvenser, antyder att videon är falsk.

    Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com