• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Tekniska chefer säger att de agerar snabbare på extremistiskt innehåll

    Från vänster Monika Bickert, chef för global policy management på Facebook, Nick Pickles, public policy chef för Twitter, Derek Slater, global chef för informationspolicy på Google, och Anti-Defamation League Senior Vice President of Programs George Selim vittnar inför senatens handel, Vetenskaps- och transportkommittén om hur internet- och sociala medieföretag är beredda att motverka terrorism och extremism, onsdag, 18 september, 2019, på Capitol Hill i Washington. (AP Photo/J. Scott Applewhite)

    Chefer för Facebook, Google och Twitter berättade för kongressen på onsdagen att de har blivit bättre och snabbare på att upptäcka och ta bort våldsamt extremistiskt innehåll på sina sociala medieplattformar inför masskjutningar som drivs av hat.

    Ifrågasatt vid en utfrågning av senatens handelsutskott, cheferna sa att de spenderar pengar på teknik för att förbättra sin förmåga att flagga extremistiskt innehåll och tar initiativet till att nå ut till brottsbekämpande myndigheter för att försöka avvärja potentiella våldsamma incidenter.

    "Vi kommer att fortsätta att investera i människorna och tekniken för att möta utmaningen, sa Derek Slater, Googles informationsdirektör.

    Lagstiftarna vill veta vad företagen gör för att ta bort hatretorik från sina plattformar och hur de samordnar med brottsbekämpande myndigheter.

    "Vi upplever en våg av hat... Sociala medier används för att förstärka detta hat, sade senator Maria Cantwell från delstaten Washington, panelens seniordemokrat.

    Företagets chefer vittnade om att deras teknik förbättras för att identifiera och ta bort misstänkt innehåll snabbare.

    Av de 9 miljoner videor som togs bort från Googles YouTube under årets andra kvartal, 87 % flaggades av en maskin som använde artificiell intelligens, och många av dem togs ner innan de fick en enda vy, sa Slater.

    Från vänster Monika Bickert, chef för global policy management på Facebook, Nick Pickles, public policy chef för Twitter, och Derek Slater, global chef för informationspolicy på Google vittnar inför senatens handel, Vetenskaps- och transportkommittén om hur internet- och sociala medieföretag är beredda att motverka terrorism och extremism, onsdag, 18 september, 2019, på Capitol Hill i Washington. (AP Photo/J. Scott Applewhite)

    Efter skjutningen på gymnasiet i Florida i februari 2018 som dödade 17 personer, Google började proaktivt nå ut till brottsbekämpande myndigheter för att se hur de bättre kan samordna, sa Slater. Nikolas Cruz, den misstänkte för skjutningen, hade skrivit på en YouTube-sida i förväg, "Jag ska bli en professionell skolskytt, " sa myndigheterna.

    Den här veckan kom beskedet från Facebook om att de kommer att arbeta med brottsbekämpande organisationer för att träna sina AI-system för att känna igen videor av våldsamma händelser som en del av ett bredare försök att slå ner extremism. Facebooks AI-system kunde inte upptäcka livestreamad video av moskéskjutningarna i Nya Zeeland i mars som dödade 50 personer. Den självbekände vita supremacisten som anklagades för skottlossningen hade livestreamat attacken.

    Insatsen kommer att använda bodycam-filmer från skjutvapenutbildning som tillhandahålls av amerikanska och brittiska myndigheter och brottsbekämpande myndigheter.

    Monika Bickert, chef för global policy management på Facebook, vittnar inför senatens handel, Vetenskaps- och transportkommittén under en utfrågning om hur internet- och sociala medieföretag är beredda att motverka terrorism och extremism, onsdag, 18 september, 2019, på Capitol Hill i Washington. (AP Photo/J. Scott Applewhite)

    Facebook utökar också sin definition av terrorism till att inte bara omfatta våldshandlingar avsedda att uppnå ett politiskt eller ideologiskt mål, men också försök till våld, särskilt när de riktar sig till civila med avsikt att tvinga och skrämma. Företaget har haft blandade framgångar i sina ansträngningar att begränsa spridningen av extremistiskt material på sin tjänst.

    Facebook verkar ha gjort små framsteg, till exempel, på sina automatiserade system för att ta bort förbjudet innehåll som glorifierar grupper som Islamiska staten under de fyra månaderna sedan The Associated Press detaljerade hur Facebook-sidor som automatiskt genererats för företag hjälper Mellanösternextremister och vita supremacister i USA. De nya detaljerna kommer från en uppdatering av ett klagomål till Securities and Exchange Commission som National Whistleblower Center planerar att lämna in denna vecka.

    Facebook sa som svar att de tar bort alla automatiskt genererade sidor "som bryter mot våra policyer. Även om vi inte kan fånga alla, vi är fortfarande vaksamma i denna ansträngning."

    Monika Bickert, chef för global policy management på Facebook, sällskap till höger av Nick Pickles, public policy chef för Twitter, vittnar inför senatens handel, Vetenskaps- och transportkommittén under en utfrågning om hur internet- och sociala medieföretag är beredda att motverka terrorism och extremism, onsdag, 18 september, 2019, på Capitol Hill i Washington. (AP Photo/J. Scott Applewhite)

    Monika Bickert, Facebooks chef för global policy management, sa vid senatsutfrågningen att företaget har ökat sin förmåga att upptäcka terror, våld och hatretorik mycket tidigare. "Vi vet att människor måste vara säkra, " sa hon. Bickert noterade att Facebook tar bort allt innehåll som främjar våld, vit överhöghet eller nationalism samt indikerar självmord, och inaktiverar konton när hot upptäcks.

    Twitters chef för strategi för offentlig politik, Nick Pickles, sade att tjänsten stängde av mer än 1,5 miljoner konton för att främja terrorism mellan den 1 augusti, 2015, och 31 december, 2018. Mer än 90 % av kontona är avstängda genom Twitters proaktiva åtgärder, han sa, inte väntar på rapporter från regering och brottsbekämpning.

    Sen. Rick Scott, R-Fla., frågade Pickles varför Twitter inte hade stängt av den venezuelanske socialistledaren Nicolas Maduros konto, som har presiderat över en allt djupare ekonomisk och politisk kris och har hotat oppositionspolitiker med åtal.

    • Monika Bickert, chef för global policy management på Facebook, sällskap till höger av Nick Pickles, public policy chef för Twitter, vittnar inför senatens handel, Vetenskaps- och transportkommittén under en utfrågning om hur internet- och sociala medieföretag är beredda att motverka terrorism och extremism, onsdag, 18 september, 2019, på Capitol Hill i Washington. (AP Photo/J. Scott Applewhite)

    • Derek Slater, global chef för informationspolicy på Google, lyssnar innan han vittnar i en senatshandel, Vetenskaps- och transportkommitténs utfrågning om hur internet- och sociala medieföretag är beredda att motverka terrorism och extremism, onsdag, 18 september, 2019, på Capitol Hill i Washington. (AP Photo/J. Scott Applewhite)

    • Från vänster Monika Bickert, chef för global policy management på Facebook, Nick Pickles, public policy chef för Twitter, och Derek Slater, global chef för informationspolicy på Google vittnar inför senatens handel, Vetenskaps- och transportkommittén om hur internet- och sociala medieföretag är beredda att motverka terrorism och extremism, onsdag, 18 september, 2019, på Capitol Hill i Washington. (AP Photo/J. Scott Applewhite)

    Om Twitter tog bort Maduros konto, "det skulle inte ändra fakta på plats, " sa Pickles.

    Scott sa att han inte höll med eftersom Maduros konto med cirka 3,7 miljoner följare ger honom legitimitet som världsledare.

    © 2019 The Associated Press. Alla rättigheter förbehållna.




    © Vetenskap https://sv.scienceaq.com