Facebook har satsat hårt på artificiell intelligens för att automatiskt upptäcka förbjudet innehåll
Facebook sa på onsdagen att dess mjukvara blir mer skicklig på att spionera förbjudet innehåll på det sociala nätverket, sedan arbeta med människor för att snabbt ta bort terroristfilmer och mer.
"Medan vi tar fel på yttrandefrihetens sida, vi drar vanligtvis gränsen för allt som kan leda till verklig skada, "Facebooks vd Mark Zuckerberg sa under en briefing om företagets senaste rapport om att fälla ut inlägg som bryter mot dess policy.
"Detta är en liten bråkdel av innehållet på Facebook och Instagram, och vi tar bort mycket av det innan någon ser det."
Facebook har investerat mycket i artificiell intelligens (AI) för att automatiskt upptäcka förbjudet innehåll, ofta innan det ses av användarna, och mänskliga team av granskare som kontrollerar om programvaran var på mål.
Facebook har mer än 35, 000 personer som arbetar med säkerhet och säkerhet, och spenderar miljarder dollar årligen på det uppdraget, enligt Zuckerberg.
"Våra ansträngningar ger resultat, ", sa Zuckerberg. "System vi byggt för att lösa dessa problem är mer avancerade."
När det gäller att upptäcka hatpropaganda, Facebook-mjukvaran hittar nu automatiskt 80 procent av innehållet borttaget i en massiv förbättring från två år sedan, när nästan allt sådant material inte hanterades förrän det rapporterades av användare, enligt det Kalifornien-baserade företaget.
Nettling nyans
Zuckerberg noterade att hatretorik är svårare för AI att upptäcka än nakenhet i bilder eller video på grund av "språkliga nyanser" som kräver sammanhang som kan göra även vanliga ord hotfulla.
Lägg till det videor av attacker som drivs av partiskhet mot en ras, kön eller religion skulle kunna delas för att fördöma sådant våld snarare än att glorifiera det.
Facebooks ordförande och vd Mark Zuckerberg vittnar inför House Financial Services Committee den 23 oktober, 2019
Folk på Facebook fortsätter att försöka dela video av en fruktansvärd moskéattack i Christchurch, Nya Zeeland, med sociala nätverkssystem som blockerar 95 procent av dessa försök, enligt befattningshavare.
En ensam beväpnad man öppnade eld mot två moskéer i staden Christchurch och dödade och skadade massor av muslimer i mars, sänder övergreppen live på Facebook.
Facebook har terroristexperter som en del av ett team på mer än 350 personer som ägnar sig åt att förhindra terroristgrupper från att använda det sociala nätverket, enligt chefen för global policy management Monika Bickert.
System som finslipats för att hitta och ta bort förbjudet innehåll på Facebook används även på Instagram, som har ökat ansträngningarna för att filtrera bort innehåll som kan uppmuntra till självmord eller självskada samtidigt som det tillåter människor att dela sådana traumatiska upplevelser i en anda av återhämtning eller helande,
Regler som nyligen infördes på Instagram lade till ritningar och annat fiktivt innehåll till listan för att förbjuda bilder som kan uppmuntra till självmord eller självskada.
Den Facebookägda bild- och videodelningstjänsten i början av året slog ner bilder på självskador efter att en brittisk tonåring som gick online för att läsa om självmord tog sitt eget liv 2017.
14-åringens historia i sociala medier avslöjade att hon följde konton om depression och självmord.
Fallet väckte en livlig debatt i Storbritannien om föräldrakontroll och statlig reglering av barns användning av sociala medier.
Instagram har aldrig tillåtit inlägg som främjar eller uppmuntrar till självmord eller självskada.
Med en regeländring tidigt i år, Instagram började ta bort referenser till icke-grafiskt innehåll relaterat till människor som skadade sig själva från dess sökningar och rekommendationsfunktioner.
Åtgärderna var avsedda att göra sådana bilder svårare att hitta för deprimerade tonåringar som kan ha självmordstendenser.
© 2019 AFP