Kredit:CC0 Public Domain
Polarisering, konspirationsteorier, falska nyheter:Vad folk ser på Internet bestäms till stor del av de ogenomskinliga algoritmerna hos bara några få företag. Det är en oroande utveckling för demokratiska samhällen. Men onlinemiljöer kan utformas på sätt som främjar autonomi och transparens, och därigenom främja Internets positiva potential. Ett team av forskare från Max Planck Institute for Human Development i Berlin, University of Bristol, och Harvard Law School har närmat sig denna debatt ur ett beteendevetenskapligt perspektiv och föreslagit interventioner som kan främja ett mer demokratiskt internet. Deras resultat har publicerats i Naturen Mänskligt beteende .
Du bläddrar igenom din YouTube, Facebook, eller Twitter-flöde när en video dyker upp:en rapport om hemliga politiska avtal, mediakonspirationer, eller falska vetenskapliga studier. Allt verkar backas upp av fakta. Videon har hundratusentals klick och ser ut att få draghjälp över hela världen. Och många tittare verkar hålla med om det, efter att ha gett det en "tummen upp". Men exakt vad betyder allt detta? Gör det videon trovärdig? Hur många tittare såg videon till slutet; hur många kvar halvvägs? Och varför dök videon upp i ditt flöde från början? Onlineplattformen vet många av svaren, men den delar inte den informationen. Och inga andra ledtrådar tillhandahålls som kan hjälpa dig att bedöma innehållet, kvalitet, eller videons trovärdighet.
Enligt Reuters Institute Digital News Report 2019, mer än hälften (55 %) av världens internetanvändare använder nu sociala medier eller sökmotorer för att hänga med i nyheterna. Med andra ord, den allmänna opinionen formas till stor del av innehåll på nätet, som i sin tur kureras av algoritmer. "Syftet är att hålla användarna nöjda så länge som möjligt så att de stannar på plattformen. Det uppnås genom att tillhandahålla underhållning och skapa en känsla av välbefinnande - vilket förmodligen förklarar varför många plattformar inte har "ogilla"-knappar som tillåt användare att rösta ned innehåll. Känslan som förmedlas är:Du har rätt. Det kan vara ofarligt när vi delar privat innehåll som semesterbilder, men det förvränger bilden när det som sprids är radikala åsikter och osanningar, " säger medförfattaren Stephan Lewandowsky, Professor i kognitiv psykologi vid University of Bristol.
Ett annat problem är att nyhetsflödesalgoritmer endast visar användarnas innehåll som är baserat på deras tidigare onlinebeteende – som de sannolikt håller med om. Andra synpunkter tenderar att inte visas alls. Detta skapar nätverk av likasinnade användare, som förstärker delade åsikter och skapar en illusion av ett brett stöd, även om en åsikt faktiskt inte är allmän. Men hur kan användare skilja falska nyheter från fakta? Och hur behöver onlinemiljöer utformas för att stödja dessa ansträngningar? "De interventioner vi föreslår syftar till att ge enskilda användare möjlighet att fatta välgrundade och autonoma beslut i onlinemiljöer – helst, utan att behöva förlita sig på oberoende faktagranskare. Arkitekturen i onlinemiljöer påverkar användarnas beteende. För att förändra den miljön till det bättre, vi måste förstå mänskligt beteende och ta hänsyn till det beteendet i designval, säger Philipp Lorenz-Spreen, huvudförfattare till studien och forskare vid Max Planck Institute for Human Development.
Forskargruppen har identifierat ett antal sätt att hjälpa användare att utvärdera kvaliteten på internetinnehåll och att förstå mekanismerna bakom algoritmer – utan att inskränka de friheter som är centrala för Internets ursprungliga filosofi. Dessa möjligheter är tekniskt genomförbara men hittills i stort sett outnyttjade. Forskargruppen har tagit fram specifika rekommendationer för att ge individer möjligheter online, utifrån två tillvägagångssätt från beteendevetenskapen:nudging och boosting.
Nudging syftar till att styra människors beteende genom att lyfta fram viktig information utan att införa regler eller förbud. Boosting syftar till att förbättra människors beslutsförmåga, gör det möjligt för dem att självständigt navigera i situationer och fatta bättre beslut. Enligt forskarna, det är viktigt att ha ett mångsidigt förhållningssätt för att nå så många människor som möjligt. Nudging kan användas, till exempel, för att ange om innehållet uppfyller vissa kvalitetskriterier – till exempel om det härrör från pålitliga källor. Detta skulle både få användare att kontrollera innehållet noggrant och skapa en incitamentstruktur för innehållsproducenter att uppfylla de nödvändiga kriterierna. Att inkludera hyperlänkar till verifierade källor skulle vara ytterligare ett steg. Wikipedia skulle kunna fungera som en modell här:De referenser och korsreferenser den ger hjälper till att kontextualisera den information som presenteras. Twitter tog nyligen ett steg i denna riktning och började flagga några tweets med en faktakontrollvarning – inklusive en tweet av Donald Trump om poströstning.
Nudges kan också kommunicera ytterligare information om andra användares onlinebeteende, ge ytterligare sammanhang om hur andra utvärderar innehåll. Till exempel, antalet gilla-markeringar kan ställas i relation till det totala antalet läsare:"4, 287 av 1,5 miljoner läsare gillade den här artikeln." Informationen om att det fanns 44, 000 klick på en artikel, men att bara 3, 000 användare som läser den till slutet kan vara en bättre indikator på kvalitet än bara antalet klick och likes. Det har visat sig att transparenta numeriska format kan förbättra medicinska beslut. Varför skulle inte samma sak gälla för Internet? Detta tillvägagångssätt skulle kunna förhindra bildandet av ekokammare där grupper av människor felaktigt tror att deras åsikt är utbredd och accepterad.
En annan möjlighet kan vara att göra det lite svårare för användare att dela information när en artikel inte citerar externa referenser. Till exempel, användare kan behöva klicka förbi ett popup-fönster som innehåller en varning om att referenser saknas. En annan typ av nudge kan rikta in sig på hur innehåll är ordnat i webbläsare – det vill säga hur ett nyhetsflöde sorterar innehåll. Tydlig skillnad mellan typer av innehåll, såsom åsikter, Nyheter, eller inlägg av vänner, kan göra nyhetsflöden mer transparenta.
Boosta, i kontrast, syftar till att stärka användarnas kompetens på lång sikt. Det här skulle kunna, till exempel, innebär att göra det möjligt för människor att justera hur deras nyhetsflöden sorteras – låta dem ändra sina inställningar för att spegla vilka faktorer som är viktigast för dem och vilket innehåll de vill se först. Sociala nätverk kan vara tvungna att ange varför visst innehåll vägs tyngre och visas först, medan övrigt innehåll prioriteras ned. Ett annat exempel på en boost skulle vara att presentera den ursprungliga källan till en bit information och vägen genom vilken den nådde en användare. Enkla beslutsträd kan vägleda användare genom en steg-för-steg-process för att kontrollera ursprunget, sammanhang, och kvaliteten på onlineinnehåll. Med andra ord, användare skulle få verktygen att själva bli faktagranskare. I längden, de skulle lära sig att känna igen mönster, att kritiskt bedöma innehåll, och att identifiera manipulation snabbare.
"Den interaktiva karaktären hos sociala medier skulle kunna utnyttjas för att främja mångfaldig demokratisk dialog och främja kollektiv intelligens. Vårt mål är att hitta sätt att stärka Internets potential att informera beslutsprocesser i demokratiska samhällen, stärka dem snarare än att underminera dem. Globala problem som klimatförändringar och coronavirus-pandemin kräver samordnade, kollektiva lösningar. Och det gör en demokratiskt sammankopplad onlinevärld avgörande, säger Ralph Hertwig, Direktör för Center for Adaptive Rationality vid Max Planck Institute for Human Development.