• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Facebooks annonsleveranssystem diskriminerar fortfarande efter ras, kön, ålder

    Kredit:Hannah Moore/Northeastern University

    Genom att avgöra fem olika stämningar samtidigt, Facebook lovade tidigare i år att ändra sättet att hantera annonserna för bostäder, sysselsättning, och kredit som körs på dess plattform. Annonsörer skulle inte längre kunna rikta in sig på en målgrupp efter kön, lopp, eller ålder, för att förhindra diskriminering av lagligt skyddade grupper.

    Men, ny forskning av ett team av datavetare, inklusive nordöstra professorn Alan Mislove, visar att algoritmen Facebook använder för att leverera reklam fortfarande kan skeva mot specifika demografiska grupper – trots de förändringar företaget gjort.

    "För att vara tydlig, vi anklagar inte Facebook för att bryta mot förlikningen, " säger Mislove, som är professor i datavetenskap vid Northeastern. "Snarare, vad vår forskning visar är en komplex algoritm som fungerar."

    Det beror på att algoritmer, Mislove säger, agerar mycket annorlunda i praktiken än de gör i teorin.

    I teorin, ta bort annonsörernas förmåga att specifikt rikta in sig på människor efter ras, kön, och ålder bör resultera i reklampublik som inkluderar en varierad blandning av människor. I praktiken, Facebooks algoritm förlitar sig på otaliga andra egenskaper hos sina användare som i slutändan fungerar som ombud för ras, kön, och ålder, säger Mislove.

    Den här sommaren, Facebook introducerade sin Special Ad Audience-funktion – ett marknadsföringsverktyg för personer som marknadsför annonser som erbjuder kredit, sysselsättning, eller bostadsmöjligheter. Medan ett klädföretag kanske vill annonsera direkt till män eller kvinnor, kreditdomänerna, sysselsättning, och bostäder har särskilt rättsligt skydd i USA för att förhindra diskriminering.

    Mislove arbetade med ett team av forskare som också inkluderade nordöstra doktorander Piotr Sapiezynski och Avijit Ghosh, student Levi Kaplan, och en forskare från den ideella teknikorganisationen Upturn för att testa den nya funktionen mot sin föregångare, kallas en Lookalike-publik> .

    Forskarna använde allmänt tillgänglig väljardata för att skapa publik som var avsiktligt partiska av ras, kön, ålder, och politiska åsikter, och matade dem till både de nya och befintliga reklamverktygen för att testa om motsvarande algoritm skulle reproducera varje bias.

    Resultaten var slående:både Lookalike- och Special Ad-målgrupper replikerade de demografiska snedvridningarna.

    I ett uttalande till ProPublica, Facebooks talesman Joe Osborne sa, "Vi har gått utöver andra för att hjälpa till att förhindra diskriminering i annonser genom att begränsa inriktning och lägga till transparens. En annonsör som är fast besluten att diskriminera människor kan göra det på vilket medium som helst online eller offline idag, Det är därför det finns lagar...Vi är den enda digitala medieplattformen som gör sådana meningsfulla ändringar i annonser och vi är stolta över våra framsteg."

    Mislove säger att resultaten illustrerar den svåra uppgiften att säkerställa rättvisa i algoritmer.

    "I praktiken, en algoritm ges miljontals ingångar, var och en på andra sätt är korrelerad till dessa skyddade egenskaper, " säger Mislove.

    Information som var du gick på college, var bor du, vilka sidor du har "gillat" på Facebook, och fler kan oavsiktligt fungera som indikatorer på din ras, kön, och ålder – och algoritmer som är byggda för att optimera resultat kan förlita sig på sådan information för att avgöra vem som är mest sannolikt att klicka på en annons.

    "Algorithmer bryr sig inte, " säger Mislove. "De har ett specifikt mål, och de kommer att använda kombinationen av funktioner som kommer att resultera i att uppnå det målet; det spelar ingen roll för dem om det betyder att de bara visar annonser för tekniska jobb till vita män mellan 18 och 24 år."

    Detta är ett komplex, men ett akut problem, Mislove säger, eftersom algoritmer stödjer allt fler av våra dagliga aktiviteter. Algoritmer används för att fatta beslut om sjukvård, kreditvärdighet, sysselsättning, straffrättslig påföljd, vägbeskrivningar, vilken musik du lyssnar på, och en svindlande mängd andra dagliga interaktioner.

    Alla aktörer inom dessa domäner "vill ha effektiviteten hos algoritmer, men inte alla funderar på hur de kan gå fel, " säger Mislove.

    När det går fel, lösningen är ofta mycket komplex.

    "Det är väldigt svårt just nu, i den meningen att de skyddade identiteterna [mot vilka diskriminering kan förekomma] verkligen genomsyrar vårt samhälle, " säger Mislove. "Det kommer att bli mycket svårare och mycket mer subtilt än att bara ta bort vissa funktioner i början."


    © Vetenskap https://sv.scienceaq.com