• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Facebooks algoritmförändringar undertryckte journalistik och blandade sig med demokrati

    Vad tycker du om Facebook? Kredit:fyv6561/Shutterstock.com

    Facebooks nyhetsflödesalgoritm avgör vad användare ser på dess plattform – från roliga memes till kommentarer från vänner. Företaget uppdaterar regelbundet denna algoritm, som dramatiskt kan förändra vilken information människor konsumerar.

    När valet 2020 närmar sig, det finns mycket allmän oro för att det som kallades "ryskt inblandning" i presidentvalet 2016 skulle kunna hända igen. Men det som inte får tillräckligt med uppmärksamhet är rollen som Facebooks algoritmförändringar spelar, avsiktligt eller inte, i den sortens inblandning.

    En viktig motpol till den ryska desinformationskampanjen var faktajournalistik från välrenommerade källor – som nådde många av deras läsare på Facebook och andra sociala medieplattformar. Som forskare och utbildare i sociala medier, Jag ser bevis på att ändringar i Facebooks nyhetsflödesalgoritm undertryckte användarnas tillgång till trovärdig journalistik inför valet av Trump.

    Politiska agenter vet att Facebook fungerar som en grindvakt för informationsdieterna för mer än 200 miljoner amerikaner och 2 miljarder användare över hela världen. Åtgärder och övergrepp av andra på plattformarna har skapat mycket oro och offentlig diskussion, bland annat om hur mycket desinformation och propaganda amerikaner såg före valet. Det som inte har pratats tillräckligt om är vilken effekt Facebooks algoritmskiften har haft på tillgången till nyheter och demokrati.

    Ändra systemet

    I mitten av 2015, Facebook introducerade en stor algoritmförändring som förde läsarna bort från journalistik och nyheter, att leverera fler uppdateringar från sina vänner och familj. Förändringen gjordes på ett vänligt språk som antydde att Facebook försökte se till att användare inte missade berättelser från vänner. Men data från sociala medier visar att en effekt av förändringen var att minska antalet interaktioner som Facebook-användare hade med trovärdiga journalistik.

    Några månader före valet 2016, en ännu större algoritmförändring mot inlägg av vänner och familj tog en sekund på utgivartrafiken. En lång rad nyhetsutgivare fann att deras innehåll var betydligt mindre synligt för Facebook-användare.

    Undersöker siffrorna

    I min forskning, Jag tittade på Facebook-engagemang för vanliga nyhetskanaler kring valet 2016. Mina resultat stöder andras slutsatser om att Facebooks algoritm kraftigt undertryckte allmänhetens engagemang med dessa utgivare.

    Data från CrowdTangle, ett företag som övervakar sociala medier, visar att Facebook-trafiken minskade märkbart på CNN, ABC, NBC, CBS, Fox news, New York Times och The Washington Post efter att företaget uppdaterat sina algoritmer för att gynna vänner och familj i juni 2016.

    Det bevisar att algoritmen fungerade som den var designad för att fungera, men jag är oroad över att stora amerikanska förlag förtrycktes på detta sätt. Väljarintresset för presidentvalet var högre 2016 än under de två föregående decennierna, och desinformation florerade. Facebooks förändringar innebar att viktiga nyhetsorganisationer över hela det politiska spektrumet hade svårare att få ut ryktet om trovärdiga valnyheter och valrapportering.

    Alarmklockor

    Facebook var medveten om oro över sin algoritm redan innan valet ägde rum. En av Facebooks egna ingenjörer flaggade för dessa potentiella effekter av Facebooks algoritmförändringar i juli 2015. Tre månader senare, Zuckerbergs mentor, Roger McNamee, försökte också varna Zuckerberg och Facebooks chefer om att plattformen användes för att manipulera information om valet.

    Strax efter valet reportern Craig Silvermans forskning på BuzzFeed visade att falska valnyheter hade överträffat "riktiga nyheter". I slutet av 2018, Facebooks eget företagsuttalande avslöjade problem med hur dess algoritm belönade "borderlineinnehåll" som var sensationellt och provocerande, som mycket av de hyperpartiska nyheterna som trendade inför valet.

    Nyare forskning från Harvards Shorenstein Center visar att Facebook-trafiken fortsatte att minska avsevärt för utgivare efter en ytterligare förändring av Facebook-algoritmen i januari 2018.

    Prof. Grygiel efterlyser algoritmisk transparens på MSNBC.

    Algoritmisk transparens

    Hittills, forskning om hur Facebooks algoritm fungerar har begränsats av bristen på tillgång till dess egenutvecklade inre funktioner. Det räcker inte att undersöka effekterna av förändringarna i Facebooks nyhetsflöde. Jag tror att det är viktigt att förstå varför de hände, för, och överväga Facebooks affärsbeslut mer direkt och hur de påverkar demokratin.

    Den senaste tidens insikter i företagets interna processer tyder på att Facebook börjar förstå dess makt. I juli 2019, Bloomberg News avslöjade att företaget hade distribuerat programvara på sin egen plattform för att hålla utkik efter inlägg som porträtterade Facebook själv på potentiellt vilseledande sätt, minska deras synlighet för att värna om företagets rykte.

    Vissa internationella juridiska forskare har börjat efterlysa lagar för att skydda demokratier mot möjligheten att algoritmisk manipulation kan ge valvinster. Det finns inga bevis för att Facebooks förändringar hade politiska avsikter, men det är inte svårt att föreställa sig att företaget skulle kunna justera sina algoritmer i framtiden, om den ville.

    För att skydda sig mot den potentialen, nya lagar kan hindra förändringar av algoritmen under upptaktsperioderna före valet. I finansbranschen, till exempel, "tysta perioder" före stora företagsmeddelanden försöker förhindra marknadsföring och PR-insatser från att på konstgjord väg påverka aktiekurserna.

    Liknande skydd för algoritmer mot företagsmanipulation kan bidra till att säkerställa att politiskt aktiva, maktsökande Facebook-chefer – eller något annat företag med betydande kontroll över användarnas tillgång till information – kan inte använda sina system för att forma den allmänna opinionen eller röstbeteende.

    Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com