• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • YouTubes algoritmer kan radikalisera människor – men vi har ingen aning om hur de fungerar

    Kredit:Mr Tempter/Shutterstock

    Skapar YouTube extremister? En nyligen genomförd studie orsakade argument bland forskare genom att hävda att algoritmerna som driver sajten inte hjälper till att radikalisera människor genom att rekommendera allt mer extrema videor, som har föreslagits de senaste åren.

    Pappret, inlämnad till tidskrift med öppen tillgång Första måndagen men ännu inte formellt granskats, analyserade videorekommendationer från olika typer av kanaler. Den hävdade att YouTubes algoritm gynnar vanliga mediekanaler framför oberoende innehåll, dra slutsatsen att radikalisering har mer att göra med de människor som skapar skadligt innehåll än sajtens algoritm.

    Specialister inom området svarade snabbt på studien, med några som kritiserade tidningens metoder och andra hävdade att algoritmen var en av flera viktiga faktorer och att datavetenskap ensam inte kommer att ge oss svaret.

    Problemet med den här diskussionen är att vi inte riktigt kan svara på frågan om vilken roll YouTubes algoritm spelar för att radikalisera människor eftersom vi inte förstår hur det fungerar. Och detta är bara ett symptom på ett mycket bredare problem. Dessa algoritmer spelar en allt större roll i vårt dagliga liv men saknar någon form av transparens.

    Det är svårt att hävda att YouTube inte spelar någon roll i radikalisering. Detta påpekades först av teknologisociologen Zeynep Tufekci, som illustrerade hur rekommenderade videor gradvis driver användare mot mer extremt innehåll. Med Tufekcis ord, videor om jogging leder till videor om att köra ultramaraton, videor om vacciner leder till konspirationsteorier, och videor om politik leder till "Förintelseförnekande och annat störande innehåll."

    Detta har också skrivits om i detalj av ex-YouTube-anställde Guillaume Chaslot som arbetade med sajtens rekommendationsalgoritm. Sedan han lämnade företaget, Chaslot har fortsatt att försöka göra dessa rekommendationer mer transparenta. Han säger att YouTubes rekommendationer är partiska mot konspirationsteorier och faktiskt felaktiga videor, som ändå får folk att spendera mer tid på sajten.

    Faktiskt, maximera visningstiden är hela poängen med YouTubes algoritmer, och detta uppmuntrar videoskapare att kämpa för uppmärksamhet på alla möjliga sätt. Företagets rena brist på transparens om exakt hur detta fungerar gör det nästan omöjligt att bekämpa radikalisering på sajten. Trots allt, utan insyn, det är svårt att veta vad som kan ändras för att förbättra situationen.

    Men YouTube är inte ovanligt i detta avseende. En brist på transparens om hur algoritmer fungerar är vanligtvis fallet när de används i stora system, vare sig privata företag eller offentliga organ. Förutom att bestämma vilken video som ska visas härnäst, maskininlärningsalgoritmer används nu för att placera barn i skolor, besluta om fängelsestraff, fastställa kreditpoäng och försäkringspriser, såväl som invandrarnas öde, jobbkandidater och universitetssökande. Och vanligtvis förstår vi inte hur dessa system fattar sina beslut.

    Forskare har hittat kreativa sätt att visa effekterna av dessa algoritmer på samhället, antingen genom att undersöka den reaktionära högerns framväxt eller spridningen av konspirationsteorier på YouTube, eller genom att visa hur sökmotorer återspeglar rasistiska fördomar hos de människor som skapar dem.

    Maskininlärningssystem är vanligtvis stora, komplex, och ogenomskinlig. Passande, de beskrivs ofta som svarta lådor, var information går in, och information eller åtgärder kommer ut, men ingen kan se vad som händer däremellan. Detta innebär att, eftersom vi inte vet exakt hur algoritmer som YouTubes rekommendationssystem fungerar, att försöka ta reda på hur sajten fungerar vore som att försöka förstå en bil utan att öppna motorhuven.

    I tur och ordning, detta innebär att försök att skriva lagar för att reglera vad algoritmer bör eller inte bör göra blir en blind process eller försök och misstag. Det här är vad som händer med YouTube och med så många andra maskininlärningsalgoritmer. Vi försöker att säga något om deras resultat, utan en riktig förståelse för hur de verkligen fungerar. Vi måste öppna upp dessa patenterade teknologier, eller åtminstone göra dem tillräckligt transparenta för att vi ska kunna reglera dem.

    Förklaringar och tester

    Ett sätt att göra detta skulle vara att algoritmer ger kontrafaktiska förklaringar tillsammans med sina beslut. Detta innebär att man tar fram de minimivillkor som krävs för att algoritmen ska kunna fatta ett annat beslut, utan att beskriva dess fullständiga logik. Till exempel, en algoritm som fattar beslut om banklån kan producera en utdata som säger att "om du var över 18 år och inte hade någon tidigare skuld, du skulle få ditt banklån accepterat." Men detta kan vara svårt att göra med YouTube och andra webbplatser som använder rekommendationsalgoritmer, som i teorin kan vilken video som helst på plattformen rekommenderas när som helst.

    Ett annat kraftfullt verktyg är algoritmtestning och revision, vilket har varit särskilt användbart för att diagnostisera partiska algoritmer. I ett färskt fall, ett professionellt företag som granskar meritförteckningar upptäckte att dess algoritm prioriterade två faktorer som de bästa förutsägelserna för jobbprestationer:om kandidatens namn var Jared, och om de spelade lacrosse på gymnasiet. Detta är vad som händer när maskinen går utan tillsyn.

    I detta fall, algoritmen för CV-screening hade märkt att vita män hade en högre chans att bli anställd, och hade hittat korrelerande proxyegenskaper (som att heta Jared eller spela lacrosse) hos kandidaterna som anställdes. Med YouTube, Algoritmgranskning kan hjälpa till att förstå vilka typer av videor som prioriteras för rekommendationer – och kanske hjälpa till att lösa debatten om huruvida YouTube-rekommendationer bidrar till radikalisering eller inte.

    Att införa kontrafaktiska förklaringar eller använda algoritmrevision är svårt, kostsam process. Men det är viktigt, eftersom alternativet är värre. Om algoritmer blir okontrollerade och oreglerade, vi kunde se en gradvis krypning av konspirationsteoretiker och extremister in i våra medier, och vår uppmärksamhet kontrolleras av den som kan producera det mest lönsamma innehållet.

    Denna artikel publiceras från The Conversation under en Creative Commons -licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com