• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Användare litar lika mycket på AI som människor för att de flaggar problematiskt innehåll

    Kredit:Unsplash/CC0 Public Domain

    Användare av sociala medier kan lita lika mycket på artificiell intelligens (AI) som mänskliga redaktörer för att flagga hatretorik och skadligt innehåll, enligt forskare vid Penn State.

    Forskarna sa att när användare tänker på positiva egenskaper hos maskiner, som deras noggrannhet och objektivitet, visar de mer tro på AI. Men om användarna påminns om maskinernas oförmåga att fatta subjektiva beslut, är deras förtroende lägre.

    Fynden kan hjälpa utvecklare att designa bättre AI-drivna innehållskureringssystem som kan hantera de stora mängder information som för närvarande genereras samtidigt som man undviker uppfattningen att materialet har censurerats eller felaktigt klassificerats, säger S. Shyam Sundar, James P. Jimirro professor of Media Effects vid Donald P. Bellisario College of Communications och meddirektör för Media Effects Research Laboratory.

    "Det finns ett stort behov av moderering av innehåll på sociala medier och mer generellt, onlinemedia", säger Sundar, som också är en filial till Penn State Institute for Computational and Data Sciences. "I traditionella medier har vi nyhetsredaktörer som fungerar som grindvakter. Men online är portarna så vidöppna, och gatekeeping är inte nödvändigtvis genomförbart för människor att utföra, särskilt med mängden information som genereras. Så, med branschen i allt större utsträckning går mot automatiserade lösningar, den här studien tittar på skillnaden mellan mänskliga och automatiserade innehållsmoderatorer, i termer av hur människor reagerar på dem."

    Både mänskliga och AI-redaktörer har fördelar och nackdelar. Människor tenderar att mer exakt bedöma om innehåll är skadligt, till exempel när det är rasistiskt eller potentiellt kan provocera fram självskada, enligt Maria D. Molina, biträdande professor i reklam och PR, Michigan State, som är första författare till studien . Människor kan dock inte bearbeta de stora mängder innehåll som nu genereras och delas online.

    Å andra sidan, medan AI-redaktörer snabbt kan analysera innehåll, misstänker folk ofta dessa algoritmer för att ge korrekta rekommendationer, samt fruktar att informationen kan censureras.

    "När vi tänker på automatiserad innehållsmoderering väcker det frågan om redaktörer för artificiell intelligens inkräktar på en persons yttrandefrihet", säger Molina. "Detta skapar en dikotomi mellan det faktum att vi behöver moderering av innehåll – eftersom människor delar allt detta problematiska innehåll – och samtidigt är människor oroliga för AI:s förmåga att moderera innehåll. Så i slutändan vill vi veta hur vi kan bygga AI-innehållsmoderatorer som folk kan lita på på ett sätt som inte inkräktar på den yttrandefriheten."

    Transparens och interaktiv transparens

    Enligt Molina kan att sammanföra människor och AI i modereringsprocessen vara ett sätt att bygga ett pålitligt modereringssystem. Hon tillade att transparens – eller signalering till användare att en maskin är inblandad i moderering – är ett sätt att förbättra förtroendet för AI. Att tillåta användare att ge förslag till AI:erna, som forskarna kallar "interaktiv transparens", verkar dock öka användarnas förtroende ännu mer.

    För att studera transparens och interaktiv transparens, bland andra variabler, rekryterade forskarna 676 deltagare för att interagera med ett innehållsklassificeringssystem. Deltagarna tilldelades slumpmässigt ett av 18 experimentella förhållanden, utformade för att testa hur källan till moderering – AI, mänsklig eller båda – och transparens – regelbunden, interaktiv eller ingen transparens – kan påverka deltagarens förtroende för AI-innehållsredigerare. Forskarna testade klassificeringsbeslut – om innehållet klassificerades som "flaggat" eller "ej flaggat" för att vara skadligt eller hatiskt. Det "skadliga" testinnehållet handlade om självmordstankar, medan det "hatliga" testinnehållet inkluderade hatpropaganda.

    Bland andra fynd fann forskarna att användarnas förtroende beror på om närvaron av en AI-innehållsmoderator åberopar positiva attribut hos maskiner, såsom deras noggrannhet och objektivitet, eller negativa attribut, såsom deras oförmåga att göra subjektiva bedömningar om nyanser hos människan. språk.

    Att ge användare en chans att hjälpa AI-systemet att avgöra om onlineinformation är skadlig eller inte kan också öka deras förtroende. Forskarna sa att studiedeltagare som lade till sina egna termer till resultaten av en AI-vald lista med ord som användes för att klassificera inlägg litade på AI-redaktören lika mycket som de litade på en mänsklig redaktör.

    Etiska bekymmer

    Sundar sa att att befria människor från att granska innehåll går längre än att bara ge arbetarna en paus från en tråkig syssla. Att anställa mänskliga redaktörer för sysslan innebär att dessa arbetare utsätts för timmar av hatiska och våldsamma bilder och innehåll, sa han.

    "Det finns ett etiskt behov av automatiserad innehållsmoderering", säger Sundar, som också är chef för Penn State Center for Socially Responsible Artificiell Intelligens. "Det finns ett behov av att skydda mänskliga innehållsmoderatorer - som gör en social fördel när de gör detta - från konstant exponering för skadligt innehåll dag ut och dag in."

    Enligt Molina kan framtida arbete titta på hur man kan hjälpa människor att inte bara lita på AI, utan också att förstå det. Interaktiv transparens kan också vara en viktig del av att förstå AI, tillade hon.

    "Något som verkligen är viktigt är inte bara förtroende för system, utan också att engagera människor på ett sätt som de faktiskt förstår AI", sa Molina. "Hur kan vi använda det här konceptet med interaktiv transparens och andra metoder för att hjälpa människor att förstå AI bättre? Hur kan vi bäst presentera AI så att den åberopar den rätta balansen mellan uppskattning av maskinförmåga och skepsis om dess svagheter? Dessa frågor är värda forskning ."

    Forskarna presenterar sina resultat i det aktuella numret av Journal of Computer-Mediated Communication . + Utforska vidare

    Moderering av onlineinnehåll ökar ansvarsskyldigheten, men kan skada vissa plattformsanvändare




    © Vetenskap https://sv.scienceaq.com