• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • AI är ännu inte smart nog för att rädda oss från falska nyheter:Facebook-användare (och deras partiskhet) är nyckeln

    På egen hand, mänskligt omdöme kan vara subjektivt och skevt mot personliga fördomar.

    Informationen vi möter online varje dag kan vara vilseledande, ofullständig eller tillverkad.

    Att bli utsatt för "falska nyheter" på sociala medieplattformar som Facebook och Twitter kan påverka våra tankar och beslut. Vi har redan sett desinformation störa valen i USA.

    Facebooks grundare Mark Zuckerberg har upprepade gånger föreslagit artificiell intelligens (AI) som lösningen på fake news-dilemmat.

    Dock, frågan kräver sannolikt hög nivå av mänskligt engagemang, eftersom många experter är överens om att AI-teknik behöver utvecklas ytterligare.

    Jag och två kollegor har fått finansiering från Facebook för att självständigt genomföra forskning om en "mänsklig-i-slingan" AI-metod som kan hjälpa till att överbrygga klyftan.

    Human-in-the-loop hänvisar till att människor (användare eller moderatorer) engagerar sig för att stödja AI i att göra sitt jobb. Till exempel, genom att skapa träningsdata eller manuellt validera de beslut som AI tagit.

    Vårt tillvägagångssätt kombinerar AI:s förmåga att bearbeta stora mängder data med människors förmåga att förstå digitalt innehåll. Detta är en riktad lösning på falska nyheter på Facebook, med tanke på dess enorma skala och subjektiva tolkning.

    Datauppsättningen vi sammanställer kan användas för att träna AI. Men vi vill också att alla användare av sociala medier ska vara mer medvetna om sina egna fördomar, när det kommer till vad de dubbar falska nyheter.

    Människor har fördomar, men också unik kunskap

    För att utrota falska nyheter, att be Facebook-anställda att fatta kontroversiella redaktionella beslut är problematiskt, som vår forskning fann. Detta beror på att hur människor uppfattar innehåll beror på deras kulturella bakgrund, politiska idéer, fördomar, och stereotyper.

    Facebook har anställt tusentals människor för moderering av innehåll. Dessa moderatorer tillbringar åtta till tio timmar om dagen med att titta på explicit och våldsamt material som pornografi, terrorism, och halshuggningar, för att bestämma vilket innehåll som är acceptabelt för användare att se.

    Betrakta dem som cybervaktmästare som städar våra sociala medier genom att ta bort olämpligt innehåll. De spelar en viktig roll i att forma det vi interagerar med.

    Ett liknande tillvägagångssätt skulle kunna anpassas till falska nyheter, genom att fråga Facebooks moderatorer vilka artiklar som ska tas bort och vilka som ska tillåtas.

    AI-system skulle kunna göra detta automatiskt i stor skala genom att lära sig vad falska nyheter är från manuellt kommenterade exempel. Men även när AI kan upptäcka "förbjudet" innehåll, mänskliga moderatorer behövs för att flagga innehåll som är kontroversiellt eller subjektivt.

    Ett känt exempel är Napalm Girl-bilden.

    Det Pulitzerprisbelönta fotografiet visar barn och soldater som flyr från en napalmbombsexplosion under Vietnamkriget. Bilden lades upp på Facebook 2016 och togs bort eftersom den visade en naken nioårig flicka, strider mot Facebooks officiella community-standarder.

    Betydande samhällsprotester följde, eftersom den ikoniska bilden hade ett uppenbart historiskt värde, och Facebook tillät bilden tillbaka på sin plattform.

    Använder det bästa av hjärnor och bots

    I samband med att verifiera information, mänskligt omdöme kan vara subjektivt och skevt baserat på en persons bakgrund och implicita partiskhet.

    I vår forskning strävar vi efter att samla in flera "sanningsetiketter" för samma nyhet från några tusen moderatorer. Dessa etiketter indikerar "fakeness"-nivån för en nyhetsartikel.

    Istället för att bara samla de mest populära etiketterna, vi vill också spela in moderatorers bakgrund och deras specifika bedömningar för att spåra och förklara oklarheter och kontroverser i svaren.

    Vi kommer att sammanställa resultat för att generera en datauppsättning av hög kvalitet, vilket kan hjälpa oss att förklara fall med höga nivåer av oenighet bland moderatorer.

    För närvarande, Facebook-innehåll behandlas som binärt – antingen följer det standarderna eller så gör det inte det.

    Datauppsättningen vi sammanställer kan användas för att träna AI för att bättre identifiera falska nyheter genom att lära den vilka nyheter som är kontroversiella och vilka nyheter som är helt enkelt falska. Uppgifterna kan också hjälpa till att utvärdera hur effektiv nuvarande AI är vid upptäckt av falska nyheter.

    Makt till folket

    Även om riktmärken för att utvärdera AI-system som kan upptäcka falska nyheter är betydande, vi vill gå ett steg längre.

    Istället för att bara be AI eller experter fatta beslut om vilka nyheter som är falska, vi bör lära användare av sociala medier hur de själva identifierar sådana föremål. Vi tror att ett tillvägagångssätt som syftar till att främja informationens trovärdighet är möjligt.

    I vår pågående forskning, vi samlar in ett stort antal användarsvar för att identifiera trovärdigt nyhetsinnehåll.

    Även om detta kan hjälpa oss att bygga AI-träningsprogram, det låter oss också studera utvecklingen av mänskliga moderatorfärdigheter för att känna igen trovärdigt innehåll, när de utför identifieringsuppgifter för falska nyheter.

    Således, vår forskning kan hjälpa till att designa onlineuppgifter eller spel som syftar till att träna sociala medieanvändare att känna igen tillförlitlig information.

    Andra vägar

    Frågan om falska nyheter hanteras på olika sätt över onlineplattformar.

    Det tas ganska ofta bort genom en bottom-up-strategi, där användare rapporterar olämpligt innehåll, som sedan granskas och tas bort av plattformens anställda..

    Tillvägagångssättet som Facebook tar är att degradera opålitligt innehåll snarare än att ta bort det.

    I varje fall, Behovet för människor att fatta beslut om innehållets lämplighet kvarstår. Arbetet från både användare och moderatorer är avgörande, eftersom människor behövs för att tolka riktlinjer och besluta om värdet av digitalt innehåll, speciellt om det är kontroversiellt.

    Genom att göra så, de måste försöka se bortom kulturella skillnader, fördomar och gränser.

    Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com