• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Hur sociala medieföretag modererar sitt innehåll

    Kredit:Unsplash/CC0 Public Domain

    Innehållsmoderering är en delikat balansgång för sociala medieplattformar som försöker utöka sin användarbas. Större plattformar som Facebook och Twitter, som gör det mesta av sina vinster på annonsering, har inte råd att tappa ögonglober eller engagemang på sina sajter. Ändå är de under enorma offentliga och politiska påtryckningar att stoppa desinformation och ta bort skadligt innehåll. Samtidigt skulle mindre plattformar som tillgodoser särskilda ideologier hellre låta yttrandefriheten råda.

    I sin kommande uppsats, med titeln "Implications of Revenue Models and Technology for Content Modration Strategies", visar Whartons marknadsföringsprofessorer Pinar Yildirim och Z. John Zhang och Wharton-doktorand Yi Liu hur ett socialt medieföretags strategi för innehållsmoderering främst påverkas av dess inkomstmodell. En plattform under reklam är mer sannolikt att moderera sitt innehåll än en under prenumeration, men den modereras mindre aggressivt än den senare när den gör det. I följande uppsats diskuterar författarna sin forskning och dess konsekvenser för beslutsfattare som vill reglera sociala medieplattformar.

    Varje dag delar miljontals användare runt om i världen sina olika åsikter på sociala medieplattformar. Alla dessa åsikter är inte i harmoni. Vissa anses stötande, skadliga, till och med extrema. Med olika åsikter är konsumenter i konflikt:å ena sidan vill de fritt uttrycka sina åsikter om pågående politiska, sociala och ekonomiska frågor på sociala medieplattformar utan ingripande och utan att få veta att deras åsikter är olämpliga. Å andra sidan, när andra uttrycker sina åsikter fritt kan de anse att en del av innehållet är olämpligt, okänsligt, skadligt eller extremt och vill att det tas bort. Dessutom är konsumenterna inte alltid överens om vilka inlägg som är stötande eller vilka åtgärder sociala medieplattformar bör vidta. Enligt en undersökning av Morningconsult, till exempel, vill 80 % av de tillfrågade att hatretorik – såsom inlägg som använder förtal mot en ras-, religiös eller könsgrupp – tas bort, 73 % vill se videor som visar våldsbrott tas bort, och 66 % vill se skildringar av sexuella handlingar borttagna.

    Sociala medieplattformar står inför en utmaning att agera som väktare av internet, samtidigt som de är centrum för självuttryck och användargenererat innehåll. Faktum är att ansträngningar för moderering av innehåll äter upp betydande resurser från företag. Enbart Facebook har åtagit sig att allokera 5 % av företagets intäkter, 3,7 miljarder dollar, på innehållsmoderering, ett belopp som är större än Twitters hela årliga intäkter. Ändå verkar varken konsumenter eller tillsynsmyndigheter vara nöjda med deras ansträngningar. I en eller annan form måste företag bestämma hur innehåll ska modereras för att skydda enskilda användare och deras intressen. Ska känsligt innehåll tas bort från internet? Eller ska det fria yttrandet styra fritt, vilket indikerar att alla är fria att lägga upp vad de vill, och det är konsumentens beslut att välja in eller ut ur denna värld av yttrandefrihet? Att ta ner någons innehåll minskar användarens (och vissa andra användares) njutning av sajten, samtidigt som att inte ta ner det kan också kränka andra. När det gäller en social medieplattforms ekonomiska incitament kan innehållsmoderering därför påverka användarnas engagemang, vilket i slutändan kan påverka plattformens lönsamhet.

    Moderera innehåll, maximera vinsten

    I vår kommande artikel, "Implications of Revenue Models and Technology for Content Modration Strategies", studerar vi hur sociala medieplattformar som drivs av vinst kan eller inte kan moderera onlineinnehåll. Vi tar hänsyn till den betydande användarheterogeniteten och olika intäktsmodeller som plattformar kan ha, och vi tar fram plattformens optimala strategi för innehållsmoderering som maximerar intäkterna.

    När olika sociala medieplattformar modererar innehåll är den viktigaste avgörande faktorn deras resultat. Denna slutsats kan vara starkt beroende av reklam, eller att leverera ögonglober till annonsörer, eller de prenumerationsavgifter som enskilda konsumenter betalar. Men det finns en stark kontrast mellan de två intäktsmodellerna. Medan annonsering är beroende av att leverera många, många ögonglober till annonsörer, beror prenumerationsintäkter på att kunna attrahera betalande kunder. Som ett resultat av kontrasten ser policyn för moderering av innehåll i ett försök att behålla konsumenterna också annorlunda ut under reklam jämfört med prenumeration. Sociala medieplattformar som körs på reklamintäkter är mer benägna att genomföra innehållsmoderering men med slappa gemenskapsstandarder för att behålla en större grupp konsumenter, jämfört med plattformar med prenumerationsintäkter. Faktum är att prenumerationsbaserade plattformar som Gab och MeWe är mindre benägna att moderera innehåll och hävdar yttrandefrihet för sina användare.

    En andra viktig faktor i innehållsmoderering är kvaliteten på innehållsmodereringstekniken. En betydande mängd innehållsmoderering utförs med hjälp av datorer och artificiell intelligens. Varför hävdar då chefer för sociala medier att tekniken inte är tillräcklig? På frågan om innehållsmoderering betonar de flesta chefer på Facebook att de bryr sig mycket om innehållsmoderering och allokerar stora mängder fasta intäkter till uppgiften.

    Vi finner att en egenintresserad social medieplattform inte alltid gynnas av tekniska förbättringar. I synnerhet en plattform vars huvudsakliga inkomstkälla är från reklam kanske inte drar nytta av bättre teknik, eftersom mindre exakt teknik skapar en porös gemenskap med fler ögonglober. Detta fynd tyder på att moderering av innehåll på onlineplattformar inte bara är ett resultat av deras tekniska kapacitet, utan deras ekonomiska incitament.

    Resultaten från tidningen ställer totalt tvivel om huruvida sociala medieplattformar alltid kommer att åtgärda de tekniska bristerna på egen hand. Vi tar vår analys ett steg längre och jämför strategin för innehållsmoderering för en egenintresserad plattform med den för en samhällsplanerare, som är en statlig institution eller liknande agerande organ som sätter regler för att förbättra samhällets välfärd. En socialplanerare kommer att använda innehållsmoderering för att beskära alla användare som bidrar negativt till samhällets totala nytta, medan en egenintresserad plattform kan behålla några av dessa användare, om det tjänar dess intressen. Kanske i motsats till lekmannauppfattningar finner vi att en egenintresserad plattform är mer benägen att genomföra innehållsmoderering än en social planerare, vilket indikerar att enskilda plattformar har fler incitament att moderera sitt innehåll jämfört med regeringen.

    Men fler incitament betyder inte rätt incitament. När man genomför innehållsmoderering kommer en plattform under reklam att vara mindre strikt än en social planerare, medan en plattform under prenumeration kommer att vara strängare än en social planerare. Dessutom kommer en socialplanerare alltid att driva på perfekt teknik när kostnaden för att utveckla teknik inte är ett problem. Endast en plattform under prenumeration kommer att ha sitt intresse i linje med en social planerare för att fullända tekniken för moderering av innehåll. Dessa slutsatser visar sammantaget att det finns utrymme för statliga regleringar och när de är motiverade måste de differentieras med hänsyn till den intäktsmodell en plattform antar.

    © Vetenskap https://sv.scienceaq.com