• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Facebook:Var bättre på att bevaka nakenhet än hatretorik

    I denna 16 maj, 2012, fil foto, Facebook -logotypen visas på en iPad i Philadelphia. Facebook tror att dess polissystem är bättre på att skrubba grafiskt våld, omedelbar nakenhet och terroristpropaganda från sitt sociala nätverk än att ta bort rasister, sexistiska och andra hatiska kommentarer. Självutvärderingen på tisdag, 15 maj 2018, kom tre veckor efter att Facebook försökte ge en tydligare förklaring till vilka typer av inlägg som de inte kommer att tolerera. (AP Photo/Matt Rourke, Fil)

    Att bli av med rasister, sexistiska och andra hatiska kommentarer på Facebook är mer utmanande än att rensa bort andra typer av oacceptabla inlägg eftersom datorprogram fortfarande snubblar över nyanserna i det mänskliga språket, det avslöjade företaget på tisdagen.

    Facebook släppte också statistik som kvantifierade hur genomgripande falska konton har blivit på sin inflytelserika tjänst, trots en långvarig policy som kräver att människor ska skapa konton under sina verkliga identiteter.

    Bara från oktober till december, Facebook inaktiverade nästan 1,3 miljarder konton – och det räknas inte ens alla gånger som företaget blockerade falska profiler innan de kunde skapas.

    Om företaget inte hade stängt alla dessa falska konton, dess publik av månadsanvändare skulle ha svällt utöver sina nuvarande 2,2 miljarder och förmodligen skapat mer potentiellt kränkande material för Facebook att rensa bort.

    Facebooks självutvärdering visade att dess screeningsystem är mycket bättre på att skrubba bort grafiskt våld, omedelbar nakenhet och terroristpropaganda. Automatiserade verktyg upptäckte 86 procent till 99,5 procent av överträdelserna som Facebook identifierade i dessa kategorier.

    För hatretorik, Facebooks mänskliga granskare och datoralgoritmer identifierade bara 38 procent av överträdelserna. Resten kom efter att Facebook-användare flaggat det kränkande innehållet för granskning.

    Allt sagt, Facebook vidtog åtgärder på nästan 1,6 miljarder delar av innehåll under de sex månader som slutade i mars, en liten bråkdel av all aktivitet på dess sociala nätverk, enligt företaget.

    Rapporten markerade Facebooks första uppdelning av hur mycket material det tar bort för att ha brutit mot sina policyer. Det avslöjade inte hur lång tid det tar för Facebook att ta bort material som bryter mot dess standarder. Rapporten täcker inte heller hur mycket olämpligt innehåll Facebook missat.

    "Även om de tar bort 100 miljoner inlägg som är kränkande, det kommer att finnas en eller två som har riktigt dåliga grejer och det kommer att vara dem som alla slutar prata om på kabel-TV-nyheterna, sa Timothy Carone, som undervisar om teknik vid University of Notre Dame.

    Istället för att försöka avgöra hur mycket stötande material den inte fångade, Facebook gav en uppskattning av hur ofta de tror att användare såg inlägg som bröt mot dess standarder, inklusive innehåll som dess screeningsystem inte upptäckte. Till exempel, företaget uppskattade att för varje 10:e 000 gånger som människor tittade på innehåll på dess sociala nätverk, 22 till 27 av synpunkterna kan ha inkluderat inlägg som innehöll otillåtet grafiskt våld.

    Rapporten tar inte heller upp hur Facebook tar itu med en annan irriterande fråga – spridningen av falska nyheter som planterats av ryska agenter och andra tillverkare som försöker påverka val och opinion.

    Falska konton på Facebook har fått mer uppmärksamhet eftersom ryska agenter använde dem för att köpa annonser för att försöka påverka valet 2016 i USA.

    Även om det har fokuserat på att stänga ned falska konton, Facebook har sagt att 3 till 4 procent av dess aktiva månatliga användare är falska. Det betyder att så många som 88 miljoner falska Facebook -konton fortfarande gled igenom sprickorna i företagets polissystem till och med mars.

    Det är inte förvånande att Facebooks automatiserade program har de största svårigheterna med att försöka lista ut skillnader mellan tillåtna åsikter och avskyvärt språk som går över gränsen, sa Carone.

    "Det är som att försöka komma på motsvarigheten mellan att skrika "Eld!" i en fullsatt teater när det inte finns något och det motsvarar att säga något som är obehagligt men som kvalificeras som yttrandefrihet, " han sa.

    Facebook sa att de tog bort 2,5 miljoner delar av innehåll som ansågs vara oacceptabelt hatretorik under de första tre månaderna i år. upp från 1,6 miljoner under föregående kvartal. Företaget krediterade bättre upptäckt, även som det sades har datorprogram svårt att förstå sammanhang och språkton.

    Facebook tog ner 3,4 miljoner stycken av grafiskt våld under årets första tre månader, nästan tredubblade de 1,2 miljoner under de tre föregående månaderna. I detta fall, bättre upptäckt var bara en del av anledningen. Facebook sa att användare mer aggressivt publicerade bilder av våld på platser som krigshärjade Syrien.

    Den ökade transparensen kommer när Menlo Park, Kalifornien, företaget försöker gottgöra en integritetsskandal som utlöstes av lös policy som gjorde det möjligt för ett datautvinningsföretag med kopplingar till president Donald Trumps kampanj 2016 att samla in personlig information om så många som 87 miljoner användare. Innehållsgranskningen har inget med integritetsskydd att göra, fastän, och syftar till att upprätthålla en familjevänlig atmosfär för användare och annonsörer.

    © 2018 Associated Press. Alla rättigheter förbehållna.




    © Vetenskap https://sv.scienceaq.com