Facebook kan ta bort innehåll, lägga till varningar om innehåll kan störa vissa användare utan att bryta mot standarder, eller meddela polisen i händelse av en "specifik, överhängande och trovärdigt hot mot människoliv"
Facebook drog eller slog varningar på nästan 30 miljoner inlägg som innehåller sexuella eller våldsamma bilder, terroristpropaganda eller hatretorik under de första tre månaderna av 2018, det sa sociala mediejätten på tisdagen.
I en aldrig tidigare skådad rapport som svarar på krav på transparens efter dataintegritetsskandalen i Cambridge Analytica, Facebook detaljerade sina åtgärder mot sådant innehåll i linje med dess "gemenskapsstandarder".
Facebook sa att förbättrad teknik med hjälp av artificiell intelligens hade hjälpt det att agera på 3,4 miljoner inlägg som innehöll grafiskt våld, nästan tre gånger fler än det hade under det sista kvartalet 2017.
I 85,6 procent av fallen Facebook upptäckte bilderna innan de uppmärksammades av användare, sa rapporten, utfärdades dagen efter att företaget sa att "cirka 200" appar hade stängts av på sin plattform som en del av en utredning om missbruk av privat användardata.
Siffran representerar mellan 0,22 och 0,27 procent av det totala innehållet som Facebooks mer än två miljarder användare har sett från januari till mars.
"Med andra ord, av var 10, 000 innehållsvisningar, en uppskattning av 22 till 27 innehöll grafiskt våld, " stod det i rapporten.
Svar på regelöverträdelser inkluderar att ta bort innehåll, lägga till varningar till innehåll som kan vara störande för vissa användare utan att bryta mot Facebooks standarder; och meddela brottsbekämpande myndigheter i händelse av en "specifik, överhängande och trovärdigt hot mot människoliv”.
Förbättrad IT hjälpte också Facebook att vidta åtgärder mot 1,9 miljoner inlägg som innehöll terroristpropaganda, en ökning med 73 procent. Nästan alla hanterades innan någon larm gjordes, sa företaget.
Det tillskrev ökningen den förbättrade användningen av fotodetektionsteknik.
Facebook bad i mars om ursäkt för att ha tillfälligt tagit bort en annons med den franska konstnären Eugene Delacroix berömda verk "Liberty Leading the People" eftersom den föreställer en barbröstad kvinna
Hatretorik är svårare för polisen med hjälp av automatiserade metoder, dock, eftersom rasistiska eller homofobiska hatretorik ofta citeras i inlägg av deras måltavlor eller aktivister.
Sarkasm behöver mänsklig beröring
"Det kan krävas en människa för att förstå och korrekt tolka nyanser som... självrefererande kommentarer eller sarkasm, ", stod det i rapporten, noterar att Facebook syftar till att "skydda och respektera både uttryck och personlig säkerhet".
Facebook vidtog åtgärder mot 2,5 miljoner bitar av hatretorik under perioden, en ökning med 56 jämfört med oktober-december. Men bara 38 procent hade upptäckts genom Facebooks ansträngningar – resten flaggades upp av användare.
De inlägg som håller Facebook-recensenterna mest upptagna är de som visar vuxen nakenhet eller sexuell aktivitet – helt bortsett från barnpornografi, som inte omfattas av rapporten.
Cirka 21 miljoner sådana tjänster hanterades under perioden, ett liknande antal som i oktober-december 2017.
Det var mindre än 0,1 procent av det visade innehållet – vilket inkluderar text, bilder, videoklipp, länkar, livevideor eller kommentarer på inlägg—Facebook sa, och tillade att den hade behandlat nästan 96 procent av fallen innan de blev uppmärksammad på dem.
Facebook har kommit under eld för att visa för mycket iver på denna front, som att ta bort bilder av konstverk som tolereras enligt dess egna regler.
I mars, Facebook bad om ursäkt för att ha tillfälligt tagit bort en annons med den franska konstnären Eugene Delacroix berömda verk "Liberty Leading the People" eftersom den föreställer en barbröstad kvinna.
© 2018 AFP