• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Upptäcker djupt falska videoklipp på ett ögonblick

    Det är faktiskt väldigt svårt att hitta foton på människor med slutna ögon. Upphovsman:Bulin/Shutterstock.com

    En ny form av desinformation kommer att spridas genom onlinesamhällen när valkampanjerna 2018 värms upp. Kallas "deepfakes" efter det pseudonyma onlinekontot som populariserade tekniken - som kan ha valt dess namn eftersom processen använder en teknisk metod som kallas "deep learning" - dessa falska videor ser väldigt realistiska ut.

    Än så länge, människor har använt deepfake -videor inom pornografi och satir för att det ska se ut som att kända människor gör saker som de normalt inte skulle göra. Men det är nästan säkert att djupa förfalskningar kommer att dyka upp under kampanjsäsongen, påstås att skildra kandidater som säger saker eller går på platser som den riktiga kandidaten inte skulle göra.

    Eftersom dessa tekniker är så nya, människor har svårt att berätta skillnaden mellan riktiga videor och deepfake -videor. Mitt arbete, med min kollega Ming-Ching Chang och vår doktorand. student Yuezun Li, har hittat ett sätt att på ett tillförlitligt sätt berätta riktiga videor från deepfake -videor. Det är ingen permanent lösning, eftersom tekniken kommer att förbättras. Men det är en början, och ger hopp om att datorer kommer att kunna hjälpa människor att berätta sanningen från fiktion.

    Vad är en djupfake, 'ändå?

    Att göra en deepfake -video är ungefär som att översätta mellan språk. Tjänster som Google Translate använder maskininlärning-datoranalys av tiotusentals texter på flera språk-för att upptäcka ordanvändningsmönster som de använder för att skapa översättningen.

    Det är Barack Obama - eller är det?

    Deepfake -algoritmer fungerar på samma sätt:De använder en typ av maskininlärningssystem som kallas ett djupt neuralt nätverk för att undersöka en persons ansiktsrörelser. Sedan syntetiserar de bilder av en annan persons ansikte som gör analoga rörelser. Genom att göra så effektivt skapas en video av målpersonen som verkar göra eller säga de saker källpersonen gjorde.

    Innan de kan fungera korrekt, djupa neurala nätverk behöver mycket källinformation, till exempel foton på personer som är källan eller målet för efterbildning. Ju fler bilder som används för att träna en deepfake -algoritm, desto mer realistisk blir den digitala efterbildningen.

    Upptäcker att blinka

    Det finns fortfarande brister i denna nya typ av algoritm. En av dem har att göra med hur de simulerade ansiktena blinkar - eller inte. Friska vuxna människor blinkar någonstans mellan varannan och var tionde sekund, och en enda blinkning tar mellan en tiondel och fyra tiondel av en sekund. Det är det som är normalt att se i en video av en person som pratar. Men det är inte vad som händer i många deepfake -videor.

    Hur deepfake -videor görs.

    När en deepfake -algoritm tränas i ansiktsbilder av en person, det är beroende av de foton som finns tillgängliga på internet som kan användas som träningsdata. Även för människor som fotograferas ofta, få bilder finns tillgängliga online som visar ögonen stängda. Foton är inte bara så sällsynta - eftersom människors ögon är öppna för det mesta - utan fotografer brukar inte publicera bilder där huvudmotivens ögon är stängda.

    Utan att träna bilder på människor som blinkar, deepfake -algoritmer är mindre benägna att skapa ansikten som blinkar normalt. När vi beräknar den totala blinkningshastigheten, och jämför det med det naturliga utbudet, vi fann att karaktärer i deepfake -videor blinkar mycket mindre ofta i jämförelse med riktiga människor. Vår forskning använder maskininlärning för att undersöka ögonöppning och stängning i videor.

    Detta ger oss en inspiration för att upptäcka deepfake -videor. Senare, vi utvecklar en metod för att upptäcka när personen i videon blinkar. För att vara mer specifik, det skannar varje bildruta i en video i fråga, detekterar ansiktena i den och lokaliserar sedan ögonen automatiskt. Den använder sedan ett annat djupt neuralt nätverk för att avgöra om det detekterade ögat är öppet eller stängt, med hjälp av ögats utseende, geometriska drag och rörelse.

    Vi vet att vårt arbete utnyttjar en brist i den typ av data som är tillgänglig för att träna deepfake -algoritmer. För att undvika att bli offer för en liknande brist, vi har tränat vårt system på ett stort bibliotek med bilder av både öppna och slutna ögon. Denna metod verkar fungera bra, och som resultat, vi har uppnått en över 95 procent upptäcktshastighet.

    Det här är inte det sista ordet för att upptäcka djupförfalskningar, självklart. Tekniken förbättras snabbt, och konkurrensen mellan att skapa och upptäcka falska videor är analog med ett schackspel. Särskilt, blinkande kan läggas till djupfake -videor genom att inkludera ansiktsbilder med slutna ögon eller använda videosekvenser för träning. Människor som vill förvirra allmänheten kommer att bli bättre på att göra falska videor - och vi och andra i tekniksamhället måste fortsätta hitta sätt att upptäcka dem.

    En riktig person blinkar när han pratar.
    Ett simulerat ansikte blinkar inte som en riktig person gör.

    Denna artikel publicerades ursprungligen på The Conversation. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com