• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Människor som misstror medmänniskor visar större tillit till artificiell intelligens

    Kredit:Pixabay/CC0 Public Domain

    En persons misstro mot människor förutspår att de kommer att ha mer förtroende för artificiell intelligenss förmåga att moderera innehåll online, enligt en nyligen publicerad studie. Fynden, säger forskarna, har praktiska konsekvenser för både designers och användare av AI-verktyg i sociala medier.

    "Vi hittade ett systematiskt mönster av individer som har mindre tillit till andra människor som visar större förtroende för AI:s klassificering", säger S. Shyam Sundar, James P. Jimirro professor i mediaeffekter vid Penn State. "Baserat på vår analys verkar detta bero på att användarna åberopar tanken att maskiner är korrekta, objektiva och fria från ideologiska fördomar."

    Studien, publicerad i tidskriften New Media &Society fann också att "power users" som är erfarna användare av informationsteknologi, hade motsatt tendens. De litade mindre på AI-moderatorerna eftersom de tror att maskiner saknar förmågan att upptäcka nyanser av mänskligt språk.

    Studien fann att individuella skillnader som misstro mot andra och energianvändning förutsäger om användare kommer att åberopa positiva eller negativa egenskaper hos maskiner när de står inför ett AI-baserat system för innehållsmoderering, vilket i slutändan kommer att påverka deras förtroende för systemet. Forskarna föreslår att personalisering av gränssnitt baserat på individuella skillnader kan positivt förändra användarupplevelsen. Typen av innehållsmoderering i studien involverar övervakning av inlägg på sociala medier för problematiskt innehåll som hatretorik och självmordstankar.

    "En av anledningarna till att vissa kan vara tveksamma till att lita på teknik för innehållsmoderering är att vi är vana vid att fritt uttrycka våra åsikter online. Vi känner att innehållsmoderering kan ta det ifrån oss", säger Maria D. Molina, biträdande professor i kommunikationskonst och vetenskap vid Michigan State University, och den första författaren till denna artikel. "Denna studie kan erbjuda en lösning på det problemet genom att föreslå att för personer som har negativa stereotyper av AI för innehållsmoderering är det viktigt att förstärka mänskligt engagemang när de bestämmer sig. Å andra sidan, för personer med positiva stereotyper av maskiner, vi kan förstärka maskinens styrka genom att lyfta fram element som AI:s noggrannhet."

    Studien fann också att användare med konservativ politisk ideologi var mer benägna att lita på AI-driven moderering. Molina och medförfattaren Sundar, som också leder Penn State's Media Effects Research Laboratory, sa att detta kan bero på en misstro mot vanliga media och sociala medieföretag.

    Forskarna rekryterade 676 deltagare från USA. Deltagarna fick höra att de hjälpte till att testa ett innehållsmodereringssystem som var under utveckling. De fick definitioner av hatretorik och självmordstankar, följt av ett av fyra olika inlägg på sociala medier. Inläggen flaggades antingen för att passa dessa definitioner eller inte flaggades. Deltagarna fick också veta om beslutet att flagga inlägget eller inte togs av AI, en människa eller en kombination av båda.

    Demonstrationen följdes av ett frågeformulär som frågade deltagarna om deras individuella skillnader. Skillnaderna inkluderade deras tendens att misstro andra, politisk ideologi, erfarenhet av teknik och tillit till AI.

    "Vi bombarderas med så mycket problematiskt innehåll, från desinformation till hatpropaganda", sa Molina. "Men i slutändan handlar det om hur vi kan hjälpa användare att kalibrera sitt förtroende för AI på grund av teknikens faktiska egenskaper, snarare än att bli påverkad av de individuella skillnaderna."

    Molina och Sundar säger att deras resultat kan bidra till att forma framtida acceptans av AI. Genom att skapa system anpassade för användaren kan designers lindra skepsis och misstro och bygga upp lämpligt beroende av AI.

    "En stor praktisk implikation av studien är att ta reda på kommunikations- och designstrategier för att hjälpa användare att kalibrera sitt förtroende för automatiserade system", säger Sundar, som också är chef för Penn State Center for Socially Responsible Artificial Intelligence. "Vissa grupper av människor som tenderar att ha för mycket tilltro till AI-teknik bör uppmärksammas på dess begränsningar och de som inte tror på dess förmåga att moderera innehåll bör vara fullständigt informerade om omfattningen av mänskligt engagemang i processen." + Utforska vidare

    Användare litar lika mycket på AI som människor för att de flaggar problematiskt innehåll




    © Vetenskap https://sv.scienceaq.com