• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  •  science >> Vetenskap >  >> Andra
    Hur teknikföretag har försökt stoppa desinformation och väljarskräm, och komma till kort

    Kredit:Unsplash/CC0 Public Domain

    Varken desinformation eller väljarskräm är något nytt. Men verktyg utvecklade av ledande teknikföretag inklusive Twitter, Facebook och Google tillåter nu att denna taktik skala upp dramatiskt.

    Som forskare inom cybersäkerhet och valsäkerhet, Jag har hävdat att dessa företag måste göra mer för att tygla desinformation, digitalt förtryck och väljarförtryck på deras plattformar, bland annat genom att behandla dessa frågor som en fråga om företagens sociala ansvar.

    Tidigare i höst, Twitter tillkännagav nya åtgärder för att ta itu med desinformation, inklusive falska påståenden om riskerna med att rösta per post. Facebook har också lovat att slå ner desinformation och väljarskräm på sin plattform, bland annat genom att ta bort inlägg som uppmuntrar folk att övervaka vallokaler.

    Google har lagt ned Proud Boys-domänen som Iran påstås ha använt för att skicka meddelanden till ett 25-tal, 000 registrerade demokrater som hotade dem om de inte bytte parti och röstade på Trump.

    Men sådan självreglering, samtidigt som det är till hjälp, kan bara gå så långt. Det är dags för USA att lära sig av andra nationers erfarenheter och hålla teknikföretag ansvariga för att se till att deras plattformar inte missbrukas för att undergräva landets demokratiska grunder.

    Väljarskräm

    Den 20 oktober registrerade demokrater i Florida, en avgörande svängstat, och Alaska började få e-postmeddelanden som påstås ha kommit från den högerextrema gruppen Proud Boys. Meddelanden var fyllda med hot upp till och inklusive våldsamma repressalier om mottagaren inte röstade på president Trump och ändrade sin partitillhörighet till republikansk.

    Mindre än 24 timmar senare, den 21 oktober, Den amerikanska underrättelsechefen John Ratcliffe och FBI-chefen Christopher Wray gav en briefing där de offentligt tillskrev Iran detta försök till väljarskräm. Denna dom bekräftades senare av Google, som också har hävdat att mer än 90 % av dessa meddelanden blockerades av spamfilter.

    Den snabba tidpunkten för tilldelningen var enligt uppgift resultatet av hotets utländska natur och det faktum att det kom så nära valdagen. Men det är viktigt att notera att detta bara är det senaste exemplet på sådan väljarskräm. Andra senaste incidenter inkluderar ett robo-samtal som riktar sig till stora delar av afroamerikanska städer som Detroit och Cleveland.

    Det är fortfarande oklart hur många av dessa meddelanden som faktiskt nådde väljarna och hur dessa hot i sin tur förändrade väljarnas beteende. Det finns vissa bevis för att sådan taktik kan slå tillbaka och leda till högre valdeltagande i målgruppen.

    Desinformation på sociala medier

    Effektiva desinformationskampanjer har vanligtvis tre komponenter:

    Ett statligt sponsrat nyhetsställe för att skapa tillverkningen Alternativa mediakällor som är villiga att sprida desinformationen utan att adekvat kontrollera de underliggande fakta Medvetna eller omedvetna "påverkansagenter":det vill säga, människor att föra fram berättelsen i andra butiker

    Tillkomsten av cyberrymden har satt desinformationsprocessen i överdrift, både påskynda den virala spridningen av berättelser över nationella gränser och plattformar med lätthet och orsaka en spridning av de typer av traditionella och sociala medier som är villiga att köra med falska berättelser.

    Hittills, de stora sociala medieföretagen har tagit en till stor del bitvis och splittrad strategi för att hantera denna komplexa fråga. Twitter tillkännagav ett förbud mot politiska annonser under den amerikanska valsäsongen 2020, delvis över oro för att möjliggöra spridning av desinformation. Facebook valde ett mer begränsat förbud mot nya politiska annonser en vecka före valet.

    USA har ingen motsvarighet till den franska lagen som hindrar något påverkande tal dagen före ett val.

    Effekter och begränsningar

    Effekterna av dessa ansträngningar har dämpats, delvis på grund av förekomsten av sociala bots som sprider låg trovärdighetsinformation viralt över dessa plattformar. Det finns inga heltäckande uppgifter om den totala mängden desinformation eller hur den påverkar användarna.

    Vissa nya studier kastar ljus, fastän. Till exempel, En studie från 2019 fann att ett mycket litet antal Twitter-användare stod för den stora majoriteten av exponeringen för desinformation.

    Tekniska plattformar är begränsade från att göra mer av flera krafter. Dessa inkluderar rädsla för upplevd politisk partiskhet och en stark tro bland många, inklusive Mark Zuckerberg, i en robust tolkning av det fria ordet. En relaterad oro för plattformsföretagen är att ju mer de uppfattas som mediaportvakter, desto mer sannolikt kommer de att möta nya regleringar.

    Plattformsföretagen begränsas också av de teknologier och procedurer de använder för att bekämpa desinformation och väljarskräm. Till exempel, Facebook-personal ska enligt uppgift vara tvungen att manuellt ingripa för att begränsa spridningen av en New York Post-artikel om Hunter Bidens bärbara dator som kan vara en del av en desinformationskampanj. Detta belyser hur plattformsföretagen spelar ikapp när det gäller att motverka desinformation och behöver ägna mer resurser åt ansträngningen.

    Regulatoriska alternativ

    Det finns en växande bipartisk konsensus om att mer måste göras för att tygla överdrifter i sociala medier och för att bättre hantera de dubbla frågorna om väljarskräm och desinformation. De senaste veckorna har vi har redan sett det amerikanska justitiedepartementet öppna ett nytt antitrustärende mot Google, som, även om det inte är relaterat till desinformation, kan förstås som en del av en större kampanj för att reglera dessa giganter.

    Ett annat verktyg till den amerikanska regeringens förfogande är att revidera, eller till och med återkalla, Avsnitt 230 i 1990-talets Communications Decency Act. Denna lag har utformats för att skydda teknikföretag som de utvecklats från ansvar för innehållet som användare lägger upp på sina webbplatser. Många, inklusive tidigare vicepresident Joe Biden, hävda att det har överlevt sin användbarhet.

    Ett annat alternativ att överväga är att lära av EU:s strategi. Under 2018, Europeiska kommissionen lyckades få teknikföretag att anta "Code of Practice on Disinformation, " som åtog sig dessa företag att öka "transparens kring politisk och problembaserad reklam." dessa åtgärder för att bekämpa desinformation, och det relaterade EU:s snabbvarningssystem, har hittills inte kunnat hejda strömmen av dessa hot.

    Istället, det finns växande krav på att anta en mängd reformer för att säkerställa att plattformarna publicerar korrekt information, skydda källor till korrekt information genom förbättrade krav på cybersäkerhet och övervaka desinformation mer effektivt. Speciellt teknikföretag skulle kunna göra mer för att göra det lättare att rapportera desinformation, kontakta användare som har interagerat med sådant innehåll med en varning och ta bort falsk information om röstning, som Facebook och Twitter har börjat göra.

    Sådana steg är bara en början. Alla har en roll i att göra demokrati svårare att hacka, men de tekniska plattformarna som har gjort så mycket för att bidra till detta problem har en överdriven skyldighet att ta itu med det.

    Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com