• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Maskininlärningssystem syftar till att avgöra om ett nyhetsuttag är korrekt eller partiskt

    Ett maskininlärningssystem syftar till att avgöra om ett nyhetsuttag är korrekt eller partiskt. Kredit:Allmän egendom

    På senare tid har faktakontrollvärlden varit i lite kris. Webbplatser som Politifact och Snopes har traditionellt fokuserat på specifika påståenden, vilket är beundransvärt men tråkigt - när de har klarat av att verifiera eller avvisa ett faktum, Det finns en god chans att den redan har rest över hela världen och tillbaka igen.

    Sociala medieföretag har också haft blandade resultat som begränsar spridningen av propaganda och desinformation:Facebook planerar att ha 20, 000 mänskliga moderatorer i slutet av året, och spenderar många miljoner på att utveckla sina egna algoritmer för att upptäcka falska nyheter.

    Forskare från MIT:s datavetenskap och artificiella intelligenslab (CSAIL) och Qatar Computing Research Institute (QCRI) anser att det bästa tillvägagångssättet är att inte fokusera på fakta i enskilda påståenden, men på nyhetskällorna själva. Med hjälp av denna tack, de har demonstrerat ett nytt system som använder maskininlärning för att avgöra om en källa är korrekt eller politiskt partisk.

    "Om en webbplats har publicerat falska nyheter tidigare, det finns en god chans att de gör det igen, "säger postdoktor Ramy Baly, huvudförfattare på ett nytt papper om systemet. "Genom att automatiskt skrapa data om dessa webbplatser, förhoppningen är att vårt system kan hjälpa till att räkna ut vilka som sannolikt kommer att göra det i första hand. "

    Baly säger att systemet bara behöver cirka 150 artiklar för att på ett tillförlitligt sätt kunna upptäcka om man kan lita på en nyhetskälla-vilket innebär att ett tillvägagångssätt som deras kan användas för att stämma ut falska nyheter innan berättelserna sprids för brett.

    Systemet är ett samarbete mellan datavetare vid MIT CSAIL och QCRI, som är en del av Hamad Bin Khalifa University i Qatar. Forskare tog först data från Media Bias/Fact Check (MBFC), en webbplats med mänskliga faktakontrollanter som analyserar noggrannheten och fördomarna hos mer än 2, 000 nyhetssajter, från MSNBC och Fox News till jordbruk med låg trafik.

    De matade sedan in datan till en maskininlärningsalgoritm som kallas en SVT -klassificerare, och programmerade den för att klassificera nyhetssajter på samma sätt som MBFC. När man fick ett nytt nyhetsmeddelande, systemet var då 65 procent exakt när det gällde att upptäcka om det har en hög, låg eller medelhög nivå av "saklighet", "och ungefär 70 procent noggranna med att upptäcka om det är vänsterböjt, högerlutad eller måttlig.

    Teamet bestämde att de mest pålitliga sätten att upptäcka både falska nyheter och partisk rapportering var att titta på de vanliga språkliga funktionerna i källens berättelser, inklusive känslor, komplexitet och struktur.

    Till exempel, falska nyhetsbutiker befanns vara mer benägna att använda språk som är hyperboliskt, subjektiv, och känslomässigt. När det gäller partiskhet, vänsterlutade utlopp var mer benägna att ha språk som relaterade till begreppen skada/omsorg och rättvisa/ömsesidighet, jämfört med andra egenskaper som lojalitet, myndighet och helighet. (Dessa egenskaper representerar de 5 "moraliska grunderna, "en populär teori inom socialpsykologi.)

    Medförfattare Preslav Nakov säger att systemet också hittade korrelationer med ett utlopps Wikipedia-sida, som den bedömde för allmän längd - längre är mer trovärdig - liksom målord som "extrem" eller "konspirationsteori". Det hittade till och med korrelationer med textstrukturen för en källas webbadresser:de som hade många specialtecken och komplicerade underkataloger, till exempel, var associerade med mindre tillförlitliga källor.

    "Eftersom det är mycket lättare att få grundsanning på källor [än på artiklar], denna metod kan ge direkta och exakta förutsägelser om typen av innehåll som distribueras av dessa källor, säger Sibel Adali, en professor i datavetenskap vid Rensselaer Polytechnic Institute som inte var inblandad i projektet.

    Nakov varnar snabbt för att systemet fortfarande pågår, och det, även med förbättringar i noggrannhet, det skulle fungera bäst tillsammans med traditionella faktakontroller.

    "Om butiker rapporterar annorlunda om ett visst ämne, en webbplats som Politifact kan omedelbart titta på våra "falska nyheter" -poäng för dessa butiker för att avgöra hur mycket giltighet att ge till olika perspektiv, säger Nakov, en senior forskare vid QCRI.

    Baly och Nakov skrev tillsammans med masterstudenterna Dimitar Alexandrov och Georgi Karadzhov från Sofia University den nya uppsatsen tillsammans med seniorforskare James Glass vid MIT. Teamet kommer att presentera arbetet senare i månaden vid konferensen Empirical Methods in Natural Language Processing (EMNLP) 2018 i Bryssel, Belgien.

    Forskarna skapade också en ny öppen källkod med mer än 1, 000 nyhetskällor, kommenterad med fakta och partiskhet - världens största databas i sitt slag. Som nästa steg, teamet kommer att undersöka om det engelskutbildade systemet kan anpassas till andra språk, såväl som att gå bortom den traditionella vänster/höger-partiskheten för att utforska regionspecifika fördomar (som den muslimska världens uppdelning mellan religiösa och sekulära).

    "Denna forskningsinriktning kan belysa hur opålitliga webbplatser ser ut och vilken typ av innehåll de tenderar att dela, vilket skulle vara mycket användbart för både webbdesigners och allmänheten, säger Andreas Vlachos, en universitetslektor vid University of Cambridge som inte var inblandad i projektet.

    Nakov säger att QCRI också har planer på att rulla ut en app som hjälper användare att kliva ur sina politiska bubblor, svara på specifika nyheter genom att erbjuda användarna en samling artiklar som spänner över det politiska spektrumet.

    "Det är intressant att tänka på nya sätt att presentera nyheterna för människor, "säger Nakov." Sådana verktyg kan hjälpa människor att tänka lite mer på frågor och utforska andra perspektiv som de kanske inte hade övervägt annars. "


    © Vetenskap https://sv.scienceaq.com