Kredit:CC0 Public Domain
Internet erbjuder potential för konstruktiv dialog och samarbete, men onlinekonversationer urartar alltför ofta till personangrepp. I hopp om att dessa attacker kan avvärjas, Cornell-forskare har skapat en modell för att förutsäga vilka civila samtal som kan ta en giftig vändning.
Efter att ha analyserat hundratals utbyten på Wikipedia, forskarna utvecklade ett datorprogram som söker efter röda flaggor – som upprepade, direkt ifrågasättande och användning av ordet "du" i de två första inläggen – för att förutsäga vilka initiala civila samtal som skulle gå snett.
Tidiga utbyten som inkluderade hälsningar, uttryck för tacksamhet, häckar som "det verkar, " och orden "jag" och "vi" var mer benägna att förbli civila, studien fann.
"Det finns miljoner av dessa diskussioner, och du kan omöjligt övervaka dem alla live. Det här systemet kan hjälpa mänskliga moderatorer att bättre rikta sin uppmärksamhet, " sa Cristian Danescu-Niculescu-Mizil, biträdande professor i informationsvetenskap och medförfattare till artikeln "Conversations Gone Awry:Detecting Early Signs of Conversational Failure."
"Vi som människor har en intuition om hur man upptäcker om något går dåligt, men det är bara en misstanke. Vi kan inte göra det 100 procent av tiden. Därför, vi undrar om vi kan bygga system för att replikera denna intuition, eftersom människor är dyra och upptagna, och vi tror att det här är den typen av problem där datorer har potential att överträffa människor, " sa Danescu-Niculescu-Mizil.
Datormodellen, som också övervägde Googles perspektiv, ett maskininlärningsverktyg för att utvärdera "toxicitet, " var korrekt runt 65 procent av gångerna. Människor gissade rätt 72 procent av gångerna.
Människor kan testa sin egen förmåga att gissa vilka konversationer som kommer att spåra ur i ett online-quiz.
Studien analyserade 1, 270 samtal som började civilt men urartade till personangrepp, hämtat från 50 miljoner konversationer över 16 miljoner Wikipedia-"pratsidor", där redaktörer diskuterar artiklar eller andra frågor. De undersökte utbyten i par, att jämföra varje konversation som slutade dåligt med en som lyckades med samma ämne, så resultaten var inte snedvriden av känsligt ämne som politik.
Pappret, skriven tillsammans med Cornell Ph.D. informationsvetenskapsstudent Justine Zhang; Ph.D. datavetenskapsstudenter Jonathan P. Chang, och Yiqing Hua; Lucas Dixon och Nithum Thain från Jigsaw; och Dario Taraborelli från Wikimedia Foundation, kommer att presenteras på Föreningen för datorlingvistiks årsmöte, från 15 till 20 juli i Melbourne, Australien.
Forskarna hoppas att denna modell kan användas för att rädda risksamtal och förbättra online-dialog, snarare än för att förbjuda specifika användare eller censurera vissa ämnen. Några onlineaffischer, till exempel som inte har engelska som modersmål, kanske inte inser att de kan uppfattas som aggressiva, och varningar från ett sådant system kan hjälpa dem att anpassa sig.
"Om jag har verktyg som hittar personliga attacker, det är redan för sent, eftersom attacken redan har skett och folk redan har sett den, " sade Chang. "Men om du förstår att den här konversationen går i en dålig riktning och vidta åtgärder då, det kan göra platsen lite mer välkomnande."