• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Utvärdering av riskerna med djupa förfalskningar

    Några veckor sedan, Franska välgörenhetsorganisationen Solidarité Sida väckte en sensation när den publicerade en falsk men ändå realistisk video av Donald Trump som förkunnade "AIDS is over" som en del av en medvetenhetskampanj. Videon i fråga är det som kallas en deepfake, en teknik som innebär att man använder maskininlärning för att tillverka allt mer realistiska bilder och videor samt ljud- och textfiler.

    Denna användning av en deepfake -video av en välgörenhet belyser den växande förekomsten av detta fenomen. Medan pornografi för närvarande står för de allra flesta deepfake -videor, tekniken kan också användas för att bedra, att förtala, att sprida falska nyheter eller stjäla någons identitet.

    Utvecklande hot

    I september, EPFL:s International Risk Governance Center (IRGC) samlade cirka 30 experter för ett tvärvetenskapligt seminarium för att diskutera detta snabbt utvecklande fenomen och dess växande förekomst. IRGC har idag publicerat en rapport som innehåller värdefulla insikter om riskerna med djupfake.

    Huvudobservationen är att dessa risker potentiellt kan orsaka stor skada på många områden i livet. "Varje företagsorganisation eller aktivitet som bygger på dokumentation är potentiellt sårbar, "säger Aengus Collins, rapportens författare och biträdande direktör för IRGC. Deepfakes kan orsaka stor osäkerhet och förvirring. I ett nyligen fall, tjuvar använde djupt ljud av en chefs röst för att stjäla pengar från ett företag. I en samhällsomfattande skala, en spridning av tillverkat innehåll kan undergräva sanningen och urholka allmänhetens förtroende, själva hörnstenarna i den demokratiska debatten.

    Rapporten ger en ram för kategorisering av risker med djupfake. Det lyfter fram tre viktiga effekter - rykte skador, bedrägeri och utpressning, och manipulation av beslutsprocesser-och konstaterar att dessa effekter kan kännas individuellt, institutionellt eller i hela samhället.

    Med ett så brett spektrum av potentiella skador från djupa förfalskningar, var är riskstyrningssvar mest nödvändiga? Experterna rekommenderar att fokusera på omfattningen och svårighetsgraden av den potentiella skadan, liksom "målets" förmåga att klara nedfallet. Till exempel, ett företag med väl resurser med etablerade processer kommer bättre att kunna absorbera effekterna av en deepfake-attack än ett privat offer för trakasserier.

    Beroende lösningar

    I rapporten IRGC innehåller 15 rekommendationer som täcker en mängd olika potentiella svar på djuptillverkningar som kan mildra de risker de medför. Det kräver också djupare forskning över hela linjen.

    En av huvudkategorierna av rekommendationer är teknik, inklusive verktyg som kan verifiera ursprunget till digitalt innehåll eller upptäcka djupt förfalskade. På EPFL, Multimedia Signal Processing Group (MMSPG) och start Quantum Integrity utvecklar för närvarande en deepfake -detekteringslösning som kan användas 2020. "För varje uppsättning försvar, det kommer att finnas sårbarheter som kan utnyttjas, "Men Collins säger." Men att upprätthålla och utveckla tekniska svar på djuphandlingar är avgörande för att avskräcka de flesta missbruk. "

    Rapporten betonar också behovet av ett större fokus på deepfakes juridiska status, för att klargöra hur lagar inom områden som ärekränkning, trakasserier och upphovsrätt gäller syntetiskt innehåll.

    Mer allmänt, digital läskunnighet har en viktig roll att spela. Men Collins varnar för att det finns en paradox här:"Ett av målen med digital läskunnighet på detta område är att uppmuntra människor att inte ta digitalt innehåll till nominellt värde. Men det måste också vara ett positivt fokus på saker som bekräftelse och bedömning källor. Annars uppmuntra människor att misstro allt de ser riskerar att förvärra problem relaterade till erosion av sanning och förtroende. "

    Vidare horisonter

    Medan IRGC -rapporten fokuserar på riskhantering av djupfake, denna forskning är en del av ett bredare arbetsflöde om riskerna i samband med framväxande och konvergerande teknik, som kommer att fortsätta under 2020. "Vi beslutar för närvarande vad vårt nästa fokus kommer att vara, "säger Collins." Och det är ingen brist på kandidater. Vi lever i en tid då förhållandet mellan teknik, risk och offentlig politik är viktigare än någonsin. "


    © Vetenskap https://sv.scienceaq.com