• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Facebook behöver reglering - här är varför det ska göras med algoritmer

    Upphovsman:Shutterstock

    Facebook har liknats med en "digital gangster" av en kritisk parlamentarisk rapport om desinformation och falska nyheter. Ett vittne i den 18 månader långa utredningen om hur digitala plattformar har förändrat informationsflödet beskriver den nuvarande användningen av teknik som "kapar våra sinnen och samhället".

    Rapporten, på uppdrag av Digital, Kultur, Valberedning för media och sport, drar slutsatsen att "politiska val kan påverkas av information online". Det säger vidare:"Vi måste använda teknik, istället, att frigöra våra sinnen och använda reglering för att återställa det demokratiska ansvaret. Vi måste se till att människor har ansvaret för maskinerna. "

    Det är en obestridlig slutsats. Men det finns mycket mindre säkerhet kring hur denna förordning ska se ut. Jag skulle hävda att algoritmerna som används av Facebook och andra digitala medier bara kan styras av algoritmisk reglering.

    De två viktigaste rekommendationerna i rapporten är en undersökning av Facebooks dataanvändning och konkurrensbegränsande metoder. Detta följde slutsatser om att "Cambridge Analytica-skandalen underlättades av Facebooks policyer" och "det är uppenbart att Facebook avsiktligt och medvetet bröt mot både dataskydd och lagar mot konkurrens". Damian Collins MP, kommitténs ordförande bakom rapporten gick så långt som att säga:"Företag som Facebook utövar massiv marknadsmakt som gör att de kan tjäna pengar genom att mobba de mindre teknikföretagen och utvecklarna som förlitar sig på denna plattform för att nå sina kunder."

    Ett nytt tillvägagångssätt

    Lagstiftningsgranskning kräver stora mängder information och bevis. Men takten i vilken plattformar som Facebook utvecklas och förnyas är mycket snabbare än den tid som krävs av myndigheterna för att granska dem. Därav, bevisbaserad reglering är nödvändigtvis inte synkroniserad med algoritmerna som styr informationsflöden i den digitala tidsåldern. Om det inträffar dataintrång eller användarna manipuleras - som rapporten hittade ägde rum med avseende på omröstning - är det för sent att reglera detta i efterhand.

    En ny strategi för reglering är nödvändig. En som är baserad på användning av algoritmer för att övervaka digitala plattformar. Dessa regleringsalgoritmer bör utformas för att samla in realtidsinformation om hur plattformarna formar vad användare ser på sina nyhetsflöden och tidslinjer. De kan anpassa sig som algoritmerna som används av plattformar anpassar sig.

    Detta kräver förståelse för nyckelfunktioner på olika plattformar, såsom rollen som specifik, inflytelserika användare som är ansvariga för att utforma åsikter i hela nätverket. Om tillsynsmyndigheter vill uppmuntra digital läskunnighet och få användare att sakta ner (som rapporten rekommenderar), algoritmer kan övervaka hur plattformar uppmuntrar motsatsen.

    När det gäller tävling, inträdesbarriärerna är höga. Plattformar som Facebook och Twitter bygger på vad ekonomer kallar nätverkseffekter - ju fler som använder dem, desto mer användbara är de. Detta gör dem till naturliga monopol. De använder algoritmer för att öka deras räckvidd genom att ständigt föreslå nya anslutningar till nuvarande användare, vilket ökar växlingskostnaderna om användare vill byta till en annan plattform. Regleringsalgoritmer kan utformas för att i realtid beräkna storleken på direkta och indirekta anslutningar för varje användare, och använda dem som en proxy för deras psykologiska kostnader för att byta nät.

    En annan fråga för tävlingsvakthundar är att de mätvärden som de traditionellt använder för att övervaka marknadsstyrkan föråldras av affärsmodellerna för sociala medieplattformar. Det är mycket svårt att mäta en plattforms marknadsandel. Även om du känner till antalet registrerade användare, var och en bör ha en annan vikt baserat på deras antal anslutningar, som i sin tur bör vägas beroende på antalet anslutningar.

    Ett sätt att göra detta är att algoritmer producerar syntetiska mått på relevansen för varje anslutning. Detta skulle följa en logik som liknar den som används av Google för att rangordna relevansen av sökförslag, överväger inte bara omedelbara anslutningar, men också sekvensen av deras viktade anslutningar, mäta hur centrala olika användare är i nätverket. Således, de skulle kunna ge en mycket bättre approximation av marknadsandelar.

    Tills nu, stora teknikföretag har i stort sett fått reglera sig själva. Den brittiska rapporten utmanar detta med rätta och klargör att denna tid av självreglering måste ta slut. Men, mer än detta, det krävs en samlad insats för att utveckla nya verktyg för att möta skalan och, kritiskt, tidpunkten för hoten från den enorma marknadsstyrkan koncentrerad till datacenter på några få dominerande plattformar.

    Om sociala medieplattformar kan distribuera avancerade algoritmer för att bearbeta information om sina användare i realtid, samtidigt som jag lär av dessa data, tillsynsmyndigheter måste göra detsamma när det gäller att övervaka dem. Prioriteringen för beslutsfattare måste gå över till förebyggande, snarare än att utreda och bestraffa övergrepp efter att samhället redan är skadat. Reglerande algoritmer kan reagera i realtid på olika plattformars strategier, därigenom förbättras sannolikheten för att människor blir ansvariga för maskinerna.

    Denna artikel publiceras från The Conversation under en Creative Commons -licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com