Denna kombination av bilder visar logotyper för företag från vänster, Twitter, YouTube och Facebook. Dessa internetföretag och andra säger att de arbetar med att ta bort videofilmer som filmats av en beväpnad man vid skottlossningen i moskén i Nya Zeeland som var allmänt tillgänglig på sociala medier timmar efter den fruktansvärda attacken. (AP -bilder/fil)
Varför visade Facebook livevideo av Nya Zeelands moské som skjuter i 17 minuter? Varnade inte någon företaget medan det hände?
Facebook säger nej. Enligt dess biträdande chefsjurist, Chris Sonderby, ingen av de cirka 200 personer som såg livevideon flaggade den för moderatorer. I ett tisdag blogginlägg, Sonderby sa att den första användarrapporten inte kom förrän 12 minuter efter att sändningen avslutades.
Allt detta väcker ytterligare frågor - bland dem varför så många tittade på utan att säga något, om Facebook förlitar sig för mycket på utomstående och maskiner för att rapportera problem, och om användare och brottsbekämpande tjänstemän ens vet hur man når Facebook med oro över vad de ser på tjänsten.
"När vi ser saker genom våra telefoner, vi föreställer oss att de är som ett tv-program, " sa Siva Vaidhyanathan, professor i medievetenskap vid University of Virginia. "De är på avstånd, och vi har ingen makt. "
Facebook sa att det tog bort videon "inom några minuter" efter att ha meddelats av Nya Zeelands polis. Men sedan dess, Facebook och andra sociala medieföretag har fått kämpa med kopior som andra har lagt upp.
Den skottmisstänkte modellerade försiktigt sin attack för en internetålder, när han livestreamade dödandet av 50 personer vid två moskéer i Christchurch, Nya Zeeland.
Tim Cigelske, som undervisar om sociala medier vid Marquette University i Milwaukee, sa att även om tittarna har samma moraliska skyldigheter att hjälpa till som en åskådare har i den fysiska världen, människor vet inte nödvändigtvis vad de ska göra.
"Det är som att ringa 911 i en nödsituation, "sa han." Vi var tvungna att utbilda människor och göra det enkelt för dem. Du måste träna människor på ett nytt sätt om du ser en nödsituation inte ske personligen utan online. "
För att rapportera livevideo, en användare måste veta att klicka på en liten uppsättning av tre grå prickar på höger sida av inlägget. En användare som klickar på "rapportera livevideo" får ett urval av stötande innehållstyper att välja mellan, inklusive våld, mobbning och trakasserier. Användare uppmanas också att kontakta polisen om någon är i omedelbar fara.
Facebook verkar inte heller lägga upp någon offentlig information som instruerar brottsbekämpande myndigheter hur man rapporterar farliga eller kriminella videor. Företaget har en sida med titeln "information för brottsbekämpande myndigheter, " men den beskriver bara procedurer för att göra juridiska förfrågningar om användarkontoregister. Facebook svarade inte omedelbart på en begäran om kommentarer och frågor om dess kommunikation med polisen.
Facebook använder artificiell intelligens för att upptäcka stötande material, samtidigt som man litar på allmänheten för att flagga innehåll som bryter mot dess standarder. Dessa rapporter skickas sedan till mänskliga granskare, sa företaget i en video i november.
Videon beskriver också hur den använder "datorseende" för att upptäcka 97 procent av grafiskt våld innan någon rapporterar det. Dock, det är mindre tydligt hur dessa system gäller för Facebooks livestreaming.
Experter säger att livevideo utgör unika utmaningar, och klagomål om självmord i livestreaming, mord och misshandel dyker regelbundet upp. Ändå, de säger att Facebook inte kan avleda ansvar.
"Om de inte kan hantera ansvaret, då är det deras fel att fortsätta tillhandahålla den tjänsten, "sa Mary Anne Franks, juridikprofessor vid University of Miami.
En polis står vakt framför Masjid Al Noor -moskén i Christchurch, Nya Zeeland, söndag, 17 mars, 2019, där en av två massskjutningar inträffade. Nya Zeelands drabbade invånare nådde ut till muslimer i deras grannskap och runt om i landet på lördagen, att visa vänlighet mot ett samhälle i smärta när en 28-årig vit supremacist stod tyst inför en domare, anklagad för masskjutningar vid två moskéer som dödade dussintals människor. (AP Photo/Vincent Yu)
Hon kallar det "otroligt kränkande och olämpligt" att fästa ansvar på användare som utsätts för traumatisk video.
I vissa fall, det är inte klart från början om en video eller ett annat inlägg bryter mot Facebooks standarder, särskilt på en tjänst med en rad språk och kulturella normer. Obeslutsamhet verkade inte vara fallet här, fastän. Facebook visste helt enkelt inte om det i tid.
Facebooks Sonderby sa i tisdagens blogginlägg att företaget "betecknade båda skjutningarna som terrorattacker, vilket betyder att någon beröm, stöd och representation av händelserna" är kränkningar.
Vaidhyanathan sa att Facebooks funktion för livevideo har förvandlats till ett odjur som Facebook inte kan göra lite åt med att "brist på att vända strömbrytaren." Även om Facebook har anställt fler moderatorer för att komplettera sin maskindetektering och användarrapporter, "du kan inte anställa tillräckligt många" för att övervaka en tjänst med 2,3 miljarder användare.
"Människor kommer alltid att hitta nya sätt att uttrycka hat och initiera våld, " han sa.
Nya Zeelands premiärminister Jacinda Ardern uttryckte frustration över att filmerna förblev online fyra dagar efter massakern.
Maskiner kan upptäcka när användare försöker lägga om förbjudna videor genom att matcha mönster, eller digitala fingeravtryck, i filerna. Men användare som är fast beslutna att komma runt dessa kontroller kan göra små ändringar, som att justera färgen eller videohastigheten.
Det globala internetforumet för att bekämpa terrorism, en grupp globala internetföretag som leds av Facebook, Youtube, Microsoft och Twitter, sade att det har identifierat 800 olika versioner och lagt till dem i en delad databas som används för att blockera våldsamma terroristbilder och videor.
Sonderby sa att vissa varianter är svåra att upptäcka och att Facebook har "utökat till ytterligare detektionssystem inklusive användning av ljudteknik."
I en serie tweets en dag efter skjutningarna, Facebooks tidigare säkerhetschef, Alex Stamos, lade utmaningen för teknikföretag när de tävlade om att hänga med i nya versioner av videon.
"Det du ser på de stora plattformarna är att vattnet läcker runt tusentals fingrar som petas i en damm, " han sa.
Stamos uppskattar att de stora teknikföretagen blockerar mer än 99 procent av videorna från att laddas upp, "vilket inte räcker för att göra det omöjligt att hitta."
© 2019 Associated Press. Alla rättigheter förbehållna.