• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Oro över livestreams kan hjälpa oss att utforma bättre Facebook- och YouTube-innehållsmoderering

    Livestream på Facebook är inte bara ett verktyg för att dela våld – det har många populära sociala och politiska användningsområden. Kredit:glen carrie / unsplash, CC BY

    När familjer i Christchurch begraver sina nära och kära efter fredagens terrorattack, global uppmärksamhet riktas nu mot att förhindra att något sådant någonsin händer igen.

    Särskilt, rollen som sociala medier spelade för att sända livefilmer och förstärka dess räckvidd är under lupp. Facebook och YouTube står inför intensiv granskning.

    Nya Zeelands premiärminister Jacinta Ardern har enligt uppgift varit i kontakt med Facebook-chefer för att pressa fallet att filmerna inte ska vara tillgängliga för visning. Australiens premiärminister Scott Morrison har krävt ett moratorium för livestreamingtjänster för amatörer.

    Men utöver dessa omedelbara svar, denna fruktansvärda händelse erbjuder en möjlighet till långsiktiga reformer. Det är dags för sociala medieplattformar att bli mer öppna om hur livestreaming fungerar, hur det modereras, och vad som ska hända om eller när reglerna går sönder.

    Ökad granskning

    Med den påstådda gärningsmannen uppenbarligen flygande under radarn före denna incident i Christchurch, vårt kollektiva fokus är nu riktat mot radikalisering av unga män online.

    Som en del av det, onlineplattformar utsätts för ökad granskning och Facebook och Youtube har fått kritik.

    Efter spridning av den ursprungliga livestreamen på Facebook, YouTube blev en plats för återuppladdning och spridning av inspelade filmer.

    Båda plattformarna har gjort offentliga uttalanden om sina ansträngningar för moderering.

    YouTube noterade utmaningarna med att hantera en "oöverträffad mängd" uppladdningar.

    Även om det har rapporterats att mindre än 4000 personer såg den första strömmen på Facebook, Facebook sa:"Under de första 24 timmarna tog vi bort 1,5 miljoner videor från attacken globalt, varav över 1,2 miljoner blockerades vid uppladdning […]"

    Att främst fokusera på livestreaming är något reducerande. Även om skytten först streamade sina egna bilder, den större utmaningen med att kontrollera videon relaterar till stor del till två frågor:

    1. hur lång tid den var tillgänglig på Facebooks plattform innan den togs bort
    2. moderering av "spegel" videopublicering av personer som hade valt att ladda ner, redigera, och ladda upp videon igen för sina egna syften.

    Dessa frågor illustrerar svagheterna i befintliga policyer och metoder för innehållsmoderering.

    Ingen lätt uppgift

    Innehållsmoderering är ett komplext och föga avundsvärt ansvar. Plattformar som Facebook och YouTube förväntas balansera fördelarna med yttrandefrihet och nyhetsvärdighet med sociokulturella normer och personliga önskemål, såväl som de lokala regleringssystemen i de länder de är verksamma i.

    När plattformar utför detta ansvar dåligt (eller, avsäger sig det helt) de överför uppgiften till andra – som de Nya Zeelands internetleverantörer som blockerade åtkomsten till webbplatser som omdistribuerade skyttens bilder.

    Människor kan rimligen förvänta sig att plattformar som Facebook och YouTube ska ha noggrann kontroll över vad som laddas upp på deras webbplatser. Dock, företagens enorma användarbas gör att de ofta måste balansera tillämpningen av automatiserade, algoritmiska system för innehållsmoderering (som Microsofts PhotoDNA, och YouTubes ContentID) med team av mänskliga moderatorer.

    Vi vet från undersökande rapportering att modereringsteamen på plattformar som Facebook och YouTube har till uppgift att utföra särskilt utmanande arbete. De verkar ha en relativt hög personalomsättning som snabbt blir utbränd av svåra arbetsbelastningar samtidigt som de modererar det sämsta innehållet på internet. De försörjs med endast ringa löner, och vad som kan ses som otillräcklig mentalvård.

    Och medan vissa algoritmiska system kan vara effektiva i skala, de kan också undergrävas av kompetenta användare som förstår aspekter av deras metodik. Om du någonsin har hittat en video på YouTube där färgerna är förvrängda, ljuduppspelningen är något osynkroniserad, eller så är bilden kraftigt zoomad och beskuren, du har förmodligen sett någons försök att komma runt ContentID-algoritmer.

    För onlineplattformar, reaktionen på terrorattacker kompliceras ytterligare av den svåra balansen de måste hitta mellan deras önskan att skydda användare från onödiga eller skrämmande bilder och deras åtagande att informera människor som söker nyheter via deras plattform.

    Vi måste också erkänna de andra sätten att livestreama på i det moderna livet. Livestreaming är en lukrativ nischunderhållningsindustri, med tusentals oskyldiga användare som sänder hobbyer med vänner från brädspel till mukbang (social eating), till tv-spel. Livestreaming är viktigt för aktivister i auktoritära länder, låta dem dela ögonvittnesbilder om brott, och skifta maktförhållanden. Ett förbud mot livestreaming skulle förhindra mycket av denna verksamhet.

    Vi behöver ett nytt förhållningssätt

    Facebook och YouTubes utmaningar när det gäller att ta itu med frågan om livestreamade hatbrott säger oss något viktigt. Vi behöver en mer öppen, transparent inställning till måttfullhet. Plattformar måste prata öppet om hur detta arbete går till, och vara beredd att införliva feedback från våra regeringar och samhället mer allmänt.

    Ett bra ställe att börja är Santa Clara-principerna, genererade initialt från en konferens om innehållsmoderering som hölls i februari 2018 och uppdaterades i maj 2018. Dessa erbjuder en solid grund för reformer, anger:

    • företag bör publicera antalet borttagna inlägg och konton permanent eller tillfälligt avstängda på grund av brott mot deras innehållsriktlinjer
    • företag bör meddela varje användare vars innehåll har tagits bort eller konto är avstängt om orsaken till borttagningen eller avstängningen
    • företag bör ge en meningsfull möjlighet att i rätt tid överklaga eventuell borttagning av innehåll eller kontoavstängning.

    Ett mer socialt ansvarsfullt förhållningssätt till plattformarnas roller som moderatorer av den offentliga diskursen kräver en övergång från den svarta lådan sekretessplattformar är vana vid – och en övergång till mer ingående offentliga diskussioner om innehållsmoderering.

    I slutet, större transparens kan underlätta ett mindre reaktivt politiskt landskap, där både offentlig politik och opinion har en större förståelse för komplexiteten i att hantera ny och innovativ kommunikationsteknik.

    Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com