• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Videomanipulationsteknik utgör fara för framtida val

    Kredit:CC0 Public Domain

    En video på sociala medier visar en högt uppsatt amerikansk lagstiftare som förklarar sitt stöd för en överväldigande skattehöjning. Du reagerar därefter eftersom videon ser ut som honom och låter som honom, så visst har det varit han.

    Inte nödvändigtvis.

    Termen "falska nyheter" tar en mycket mer bokstavlig vändning eftersom ny teknik gör det lättare att manipulera ansikten och ljudet i videor. Videorna, kallas deepfakes, kan sedan läggas upp på alla sociala medier utan indikation på att de inte är den äkta varan.

    Edward Delp, chef för video- och bildbehandlingslaboratoriet vid Purdue University, säger att deepfakes är en växande fara när nästa presidentval närmar sig med stormsteg.

    "Det är möjligt att folk kommer att använda falska videor för att skapa falska nyheter och infoga dessa i ett politiskt val, sa Delp, Charles William Harrison Distinguished Professor of Electrical and Computer Engineering. "Det har redan funnits några bevis på det i andra val i hela världen.

    "Vi har vårt val på gång 2020 och jag misstänker att folk kommer att använda dessa. Folk tror på dem och det kommer att vara problemet."

    Videorna utgör en fara för att påverka den allmänna opinionens domstol genom sociala medier, eftersom nästan 70 procent av de vuxna anger att de använder Facebook, vanligtvis dagligen. YouTube har ännu högre siffror, med mer än 90 procent av 18- till 24-åringar som använder det.

    Delp och doktoranden David Güera har arbetat i två år med videomanipulering som en del av en större forskning inom mediekriminalteknik. De har arbetat med sofistikerade maskininlärningstekniker baserade på artificiell intelligens och maskininlärning för att skapa en algoritm som upptäcker deepfakes.

    Kredit:Purdue University

    I slutet av förra året, Delp och hans teams algoritm vann en tävling för Defense Advanced Research Projects Agency (DARPA). DARPA är en byrå inom det amerikanska försvarsdepartementet.

    "Genom att analysera videon, Algoritmen kan se om ansiktet överensstämmer med resten av informationen i videon, " sa Delp. "Om det är inkonsekvent, vi upptäcker dessa subtila inkonsekvenser. Den kan vara så liten som några få pixlar, det kan vara färginkonsekvenser, det kan vara olika typer av distorsion."

    "Vårt system är datadrivet, så den kan leta efter allt – den kan titta på anomalier som att blinka, den kan leta efter anomalier i belysningen, "Güera sa, att lägga till systemet kommer att fortsätta att bli bättre på att upptäcka deepfakes eftersom de ger det fler exempel att lära av.

    Forskningen presenterades i november vid 2018 IEEE International Conference on Advanced Video and Signal Based Surveillance.

    Deepfakes kan också användas för att fejka pornografiska videor och bilder, använda ansikten på kändisar eller till och med barn.

    Delp sa att tidiga deepfakes var lättare att upptäcka. Teknikerna kunde inte återskapa ögonrörelser bra, resulterade i videor av en person som inte blinkade. Men framsteg har gjort tekniken bättre och mer tillgänglig för människor.

    Nyhetsorganisationer och sociala medier är oroliga för framtiden för deepfakes. Delp förutser att båda kommer att ha verktyg som hans algoritm i framtiden för att avgöra vilka videofilmer som är verkliga och vad som är en deepfake.

    "Det är ett vapenlopp, " sa han. "Deras teknik blir bättre och bättre, men jag gillar att tro att vi kommer att kunna hänga med."


    © Vetenskap https://sv.scienceaq.com