• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Att upptäcka deepfakes genom att titta noga avslöjar ett sätt att skydda sig mot dem

    När en dator sätter Nicolas Cages ansikte på Elon Musks huvud, det kanske inte passar ansiktet och huvudet korrekt. Kredit:Siwei Lyu, CC BY-ND

    Deepfake-videor är svåra för otränade ögon att upptäcka eftersom de kan vara ganska realistiska. Oavsett om det används som personliga hämndvapen, att manipulera finansmarknaderna eller att destabilisera internationella relationer, videor som visar människor som gör och säger saker de aldrig har gjort eller sagt är ett grundläggande hot mot den långvariga idén att "se är att tro." Inte längre.

    De flesta deepfakes görs genom att visa en datoralgoritm många bilder av en person, och sedan låta den använda vad den såg för att generera nya ansiktsbilder. På samma gång, deras röst syntetiseras, så det både ser ut och låter som att personen har sagt något nytt.

    En del av min forskargrupps tidigare arbete gjorde det möjligt för oss att upptäcka deepfake-videor som inte innehöll en persons normala mängd ögonblinkningar – men den senaste generationen deepfake har anpassat sig, så vår forskning har fortsatt att gå framåt.

    Nu, vår forskning kan identifiera manipulation av en video genom att titta noga på pixlarna i specifika bildrutor. Ta ett steg längre, vi utvecklade också en aktiv åtgärd för att skydda individer från att bli offer för deepfakes.

    Att hitta brister

    I två nya forskningsartiklar, vi beskrev sätt att upptäcka djupa förfalskningar med brister som inte kan åtgärdas enkelt av förfalskarna.

    När en djupfalsk videosyntesalgoritm genererar nya ansiktsuttryck, de nya bilderna stämmer inte alltid överens med den exakta placeringen av personens huvud, eller ljusförhållandena, eller avståndet till kameran. För att få de falska ansiktena att smälta in i omgivningen, de måste omvandlas geometriskt – roteras, storleksändrad eller på annat sätt förvrängd. Denna process lämnar digitala artefakter i den resulterande bilden.

    En av de mest kända deepfakes låter en varning.

    Du kanske har märkt några artefakter från särskilt allvarliga transformationer. Dessa kan få ett foto att se uppenbart manipulerat ut, som suddiga kanter och artificiellt slät hud. Mer subtila transformationer lämnar fortfarande bevis, och vi har lärt ut en algoritm för att upptäcka det, även när folk inte kan se skillnaderna.

    Dessa artefakter kan ändras om en djupfalsk video har en person som inte tittar direkt in i kameran. Video som fångar en verklig person visar hur deras ansikte rör sig i tre dimensioner, men deepfake-algoritmer kan ännu inte tillverka ansikten i 3D. Istället, de genererar en vanlig tvådimensionell bild av ansiktet och försöker sedan rotera, ändra storlek och förvräng den bilden så att den passar den riktning som personen är tänkt att titta på.

    Till vänster, ett ansikte upptäcks lätt i en bild innan vår bearbetning. I mitten, vi har lagt till störningar som gör att en algoritm upptäcker andra ansikten, men inte den riktiga. Till höger är ändringarna vi lagt till i bilden, förbättras 30 gånger för att synas. Kredit:Siwei Lyu, CC BY-ND

    De gör det inte så bra ännu, som ger möjlighet till upptäckt. Vi designade en algoritm som beräknar åt vilket håll personens näsa pekar i en bild. Den mäter också åt vilket håll huvudet pekar, beräknas med hjälp av ansiktets kontur. I en riktig video av en verklig persons huvud, de borde alla radas upp ganska förutsägbart. I deepfakes, fastän, de är ofta felinriktade.

    En riktig video av Mark Zuckerberg.

    Försvara sig mot deepfakes

    Vetenskapen om att upptäcka deepfakes är, effektivt, en kapprustning – fejkare kommer att bli bättre på att göra sina fiktioner, och så vår forskning måste alltid försöka hänga med, och till och med komma en bit framåt.

    Om det fanns ett sätt att påverka algoritmerna som skapar deepfakes att bli sämre på sin uppgift, det skulle göra vår metod bättre på att upptäcka förfalskningarna. Min grupp har nyligen hittat ett sätt att göra just det.

    En algoritm upptäcker att den här påstådda videon av Mark Zuckerberg är en bluff.

    Bildbibliotek av ansikten sammanställs av algoritmer som bearbetar tusentals onlinefoton och videor och använder maskininlärning för att upptäcka och extrahera ansikten. En dator kan titta på ett klassfoto och upptäcka ansiktena på alla elever och läraren, och lägg till just dessa ansikten i biblioteket. När det resulterande biblioteket har massor av högkvalitativa ansiktsbilder, den resulterande deepfake är mer sannolikt att lyckas lura sin publik.

    Vi har hittat ett sätt att lägga till specialdesignat brus till digitala fotografier eller videor som inte är synliga för mänskliga ögon men som kan lura ansiktsdetekteringsalgoritmerna. Den kan dölja pixelmönstren som ansiktsdetektorer använder för att lokalisera ett ansikte, och skapar lockbeten som antyder att det finns ett ansikte där det inte finns ett, som i en bit av bakgrunden eller en kvadrat av en persons kläder.

    Subtila ändringar av bilder kan försvinna ansiktsdetekteringsalgoritmer.

    Med färre riktiga ansikten och fler icke-ansikten som förorenar träningsdata, en deepfake-algoritm kommer att vara sämre på att generera ett falskt ansikte. Det saktar inte bara ner processen att göra en deepfake, men gör också den resulterande deepfake mer felaktig och lättare att upptäcka.

    När vi utvecklar denna algoritm, vi hoppas kunna applicera det på alla bilder som någon laddar upp på sociala medier eller annan webbsajt. Under uppladdningsprocessen, kanske, de kan bli frågade, "Vill du skydda ansiktena i den här videon eller bilden mot att användas i deepfakes?" Om användaren väljer ja, då kan algoritmen lägga till det digitala bruset, låta människor online se ansiktena men effektivt dölja dem från algoritmer som kan försöka efterlikna dem.

    Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com