Kredit:CC0 Public Domain
Ett team av forskare vid Cornel University som arbetar med Wikimedia Foundation har tagit fram ett digitalt ramverk för att upptäcka när en onlinediskussion sannolikt blir ful. I en tidning som laddats upp till arXiv preprint server, teamet beskriver sitt tillvägagångssätt och hur väl deras algoritm fungerade under testning.
Som forskarna noterar, onlinesamtal kan ofta urartas till oenigheter och ofta personangrepp. De noterar vidare att detta ofta är fallet när människor går in i en miljö som innebär kritik, som Wikipedia. Där, amatörredaktörer uppmuntras att ge kritik av andras arbete som ett sätt att förbättra innehållet på webbplatsen. Tyvärr, många reagerar inte bra på sådan kritik, och som resultat, tillgripa att skriva elaka kommentarer. Teamet på Wikimedia Foundation skulle vilja stävja sådana konversationer, för förutom att främja dåliga känslor, det ger också sajten ett dåligt rykte. För att komma till rätta med problemet, teamet arbetade med gruppen på Cornell, som har forskat på samma problem; nämligen, bygga ett datorsystem som kan känna igen när ett mänskligt samtal sannolikt kommer att urarta till elakhet, och för att antingen stävja det, eller avsluta konversationen för de inblandade.
För att lösa det här problemet, forskarna tittade på över 1, 200 onlinekonversationer på Wikipedias diskussionssidor som letar efter språkliga ledtrådar. I detta sammanhang, ledtrådar var ord som antydde uppförande och nivå av artighet. Därvid, de upptäckte att när människor använde ledtrådar som "snälla" och "tack, "Det var mindre chans att saker skulle bli fula. Det fanns också positiva fraser, som "jag tror" eller "jag tror" som antydde ett försök att hålla saker civila, som tenderade att hålla saker på en jämn köl. Å andra sidan, de hittade också mindre användbara ledtrådar, som när konversationer började med direkta frågor eller ordet "du". Sådana signaler tenderade att leda till förnedring i hövligheten någon gång och, forskarna föreslår, ses ofta av en läsare som fientlig och omtvistad.
Teamet utvecklade sedan en algoritm som accepterade ledtrådar som inlärda data och analyserade sedan meningar som sökte efter sådana ledtrådar och applicerade människoliknande intuition på dem. Resultatet, laget rapporterar, var ett datoriserat ramverk som tidigt kunde känna igen när ett samtal sannolikt skulle urartas till ett fult spel fram och tillbaka. De fann att systemet var 61,6 procent korrekt. Människor som gör samma test, dock, fick 72 procent.
© 2018 Phys.org