• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Cambridge Analytica -skandal - legitima forskare som använder Facebook -data kan vara säkerhetsskada

    Skandalen som har brutit ut kring Cambridge Analyticas påstådda skörd av 50 miljoner Facebook-profiler sammanställda från data från en brittisk akademiker och hans företag är en oroande utveckling för legitima forskare.

    Det politiska dataanalysföretaget Cambridge Analytica – som är anslutet till Strategic Communication Laboratories (SCL) – ska ha använt Facebook-data, efter att den överlämnades av Aleksandr Kogan, lektor vid University of Cambridges institution för psykologi.

    Kogan, genom sitt företag Global Science Research (GSR) - åtskilt från sitt universitetsarbete - samlat in data från en personlighetstestapp som heter "thisisyourdigitallife". Ungefär 270,- 000 amerikanska Facebook-användare svarade frivilligt på testet 2014. Men appen samlade också in data om deltagarnas Facebook-vänner utan deras samtycke.

    Detta var möjligt på grund av Facebook-regler vid den tiden som gjorde det möjligt för tredjepartsappar att samla in data om en Facebook-användares vänner. Det Mark Zuckerberg-drivna företaget har sedan dess ändrat sin policy för att förhindra sådan tillgång till utvecklare.

    Whistleblower Christopher Wylie, som tidigare arbetat som entreprenör på Cambridge Analytica, berättade för Guardian att företaget använde uppgifterna för att rikta in sig på amerikanska väljare inför president Donald Trumps seger 2016. Han hävdade att Cambridge Analytica var en "fullservicepropagandamaskin".

    Cambridge Analytica har förnekat alla brott och sagt att den affärstaktik som de använde är utbredd bland andra företag. För hans del, Kogan insisterar på att det han gjorde hela tiden var förenligt med lagen – och säger också, enligt CNN, att han gärna skulle vittna inför den amerikanska kongressen och prata med FBI om det arbete han utförde för företaget.

    Facebook sa den 18 mars att de hade stängt av SCL, påstå att Kogan hade "ljugit för oss och brutit mot vår plattformspolicy genom att skicka data från en app som använde Facebook-inloggning till SCL/Cambridge Analytica." Facebook anger under del tre av sin plattformspolicy att utvecklare inte har tillstånd att "överföra data som du får från oss (inklusive anonyma, sammanlagd, eller härledd data) till ett annonsnätverk, datamäklare eller annan reklam- eller intäktsrelaterad tjänst."

    I ett uttalande till Cambridge News, University of Cambridge sa:"Vi är medvetna om att Dr. Kogan etablerade sitt eget företag, Global Science Research (GSR), varav SCL/Cambridge Analytica var kund. Det är inte ovanligt att Cambridge akademiker har affärsintressen, men de måste försäkra universitetet om att dessa hålls i personlig egenskap och att det inte finns några intressekonflikter."

    Det är vår uppfattning att thisisyourdigitallife-appen skapades av GSR. Baserat på försäkringar från Dr. Kogan såväl som de bevis som finns tillgängliga för oss, vi har ingen anledning att tro att han använde universitetsdata eller anläggningar för sitt arbete med GSR, och därför att det inte finns någon anledning att tro att universitetets data och faciliteter har använts som grund för GSR:s efterföljande arbete med någon annan part.

    En dag efter att Cambridge Analytica -skandalen slog till, Facebooks aktier rasade på Wall Street mitt i integritetsreaktionen. Men kan händelsen påverka legitim akademisk forskning?

    Implikationer

    Data från sociala medier är en rik källa till information för många forskningsområden inom psykologi, teknologi, näringsliv och humaniora. Några nya exempel inkluderar att använda Facebook för att förutsäga upplopp, jämföra användningen av Facebook med oro över kroppsbilden hos tonårsflickor och undersöka om Facebook kan sänka nivåerna av stressreaktioner, med forskning som tyder på att det kan förbättra och undergräva psykosociala konstruktioner relaterade till välbefinnande.

    Det är rätt att tro att forskare och deras arbetsgivare värdesätter forskningsintegritet. Men fall där förtroende har svikits av en akademiker – även om det är så att data som används för universitetsforskningsändamål inte fångades i korselden – kommer att ha en negativ inverkan på om deltagarna kommer att fortsätta att lita på forskare. Det har också konsekvenser för forskningsstyrning och för företag att dela data med forskare i första hand.

    universitet, forskningsorganisationer och finansiärer styr forskningens integritet med tydliga och strikta etiska förfaranden utformade för att skydda deltagare i studier, till exempel var sociala medier används. Skörd av data utan tillstånd från användare anses vara en oetisk aktivitet enligt allmänt förstådda forskningsstandarder.

    Nedfallet från Cambridge Analytica-kontroversen är potentiellt enormt för forskare som förlitar sig på sociala nätverk för sina studier, där data rutinmässigt delas med dem för forskningsändamål. Teknikföretag kan bli mer ovilliga att dela data med forskare. Facebook är redan extremt skyddande mot sin data - oron är att det kan bli dubbelt svårt för forskare att legitimt komma åt denna information i ljuset av vad som har hänt med Cambridge Analytica.

    Dataanalys

    Klart, det är inte bara forskare som använder profildata för att bättre förstå människors beteendemönster. Marknadsorganisationer har profilerat konsumenter i decennier – om de känner sina kunder, de kommer att förstå de triggers som föranleder ett köp av deras produkt, gör det möjligt för dem att anpassa marknadsföringsbudskap för att förbättra försäljningen. Det har blivit lättare med digital marknadsföring - människor spåras ständigt online, deras aktiviteter analyseras med hjälp av dataanalysverktyg och personliga rekommendationer görs. Sådana metoder är kärnan i affärsstrategierna för teknikjättar som Amazon och Netflix.

    Information från onlinebeteende kan användas för att förutsäga människors humör, känslor och personlighet. Min egen forskning om intelligenta handledningssystem använder elevernas interaktioner med programvara för att profilera personlighetstyp så att den automatiskt kan anpassa handledning till någons önskade stil. Maskininlärningstekniker kan kombinera teorier från psykologi med nya mönster som hittats – som Facebook "gilla" – till profilanvändare.

    Eli Pariser, vem är VD för webbsidan Upworthy för viralt innehåll, har argumenterat mot personaliseringsverktyg sedan 2011. Han har varnat för farorna med informationsfiltrering, och anser att användningen av algoritmer – att profilera människor för att visa dem information anpassad efter personlig smak – är dåligt för demokratin.

    Även om dessa farhågor verkar bekräftas av vissa anklagelser riktade mot Cambridge Analytica, det är värt att notera att det inte har funnits några bevis för att amerikanska röster svängde till förmån för Trump på grund av Cambridge Analyticas psykometriska verktyg.

    Dock, med tanke på hans akademiska status, Kogans uppenbara beslut att överföra Facebook -data för kommersiella ändamål i strid med det sociala nätverkets politik kan ännu få explosiva konsekvenser, inte minst för att forskare kan ha svårare att få Facebook – och dess användare – att gå med på att lämna över uppgifterna enbart för forskning.

    Denna artikel publicerades ursprungligen på The Conversation. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com