• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Hur Uber och andra digitala plattformar kan lura oss med beteendevetenskap – om vi inte agerar snabbt

    Ubers affärsmodell är otroligt enkel:Det är en plattform som underlättar utbyten mellan människor. Och Uber har varit otroligt framgångsrika på det, nästan eliminerar transaktionskostnaderna för att göra affärer i allt från att skjutsa människor runt staden till att leverera mat.

    Detta är en av anledningarna till att Uber snart kommer att vara bland de mest värdefulla företagen i världen efter att dess aktier började handlas på New York-börsen den 10 maj.

    Ändå kan dess förväntade börsvärde på 82,4 miljarder USD blekna i jämförelse med den mängd användardata som den samlar på sig. Om du använder Uber – eller kanske till och med om du inte gör det – känner den till en skattkammare av data om dig, inklusive din plats, kön, utgiftshistorik, kontakter, telefonens batterinivå och även om du är på väg hem från ett one-night stand. Den kanske snart vet om du är full eller inte.

    Även om det är skrämmande nog, kombinera all denna data med Ubers expertis på att analysera den genom beteendevetenskapens lins och du har en farlig potential att utnyttja användare för vinst.

    Uber är knappast ensam. Vår forskning visar de största digitala plattformarna – Airbnb, Facebook, eBay och andra – samlar in så mycket data om hur vi lever, att de redan har förmågan att manipulera sina användare i stor skala. De kan förutsäga beteende och påverka våra beslut om var de ska klicka, dela och spendera.

    Även om de flesta plattformar inte använder alla dessa funktioner ännu, manipulation genom beteendepsykologiska tekniker kan ske tyst och lämna små spår. Om vi ​​inte sätter upp trafikregler nu, det blir mycket svårare att upptäcka och stoppa senare.

    "Välj arkitektur"

    En plattform kan vara vilket utrymme som helst som underlättar transaktioner mellan köpare och säljare. Traditionella exempel är loppmarknader och handelsgolv.

    En digital plattform tjänar samma syfte men ger ägaren möjligheten att "förmedla" sina användare medan de använder den – och ofta när de inte gör det. Med det menar vi att den kan observera och lära sig en otrolig mängd information om användarbeteende för att fullända vad beteendevetare kallar "valarkitekturer, " oansenliga designelement avsedda att påverka mänskligt beteende genom hur beslut presenteras.

    Till exempel, Uber har experimenterat med sina förare för att bestämma de mest effektiva strategierna för att hålla dem på vägen så länge som möjligt. Dessa strategier inkluderar att spela in kognitiva fördomar som förlustaversion och överskattning av händelser med låg sannolikhet, även om en förare knappt tjänar tillräckligt med pengar för att göra det värt mödan. Förare slutar som spelare på ett kasino, uppmanas att spela bara lite längre trots oddsen.

    Uber svarade inte omedelbart på en begäran om kommentar.

    Airbnb experimenterar också med sina användare. Den har använt beteendevetenskap för att få värdar att sänka sina priser och acceptera bokningar utan att screena gäster – vilket skapar verkliga risker för värdar, särskilt när de delar sin egen lägenhet.

    Även om dessa exempel verkar relativt godartade, de visar hur digitala plattformar i tysthet kan designa system för att styra användarnas handlingar på potentiellt manipulativa sätt.

    Och när plattformarna växer, de blir bara bättre val arkitekter. Med sin börsintroduktions enorma inflöde av investerarpengar för att finansiera mer data och beteendevetenskap, Uber skulle kunna flytta in på ett farligt oetiskt territorium – lätt att föreställa sig med tanke på dess tidigare praxis.

    Till exempel, om appen upptäcker att du är berusad eller i en stadsdel som du sällan reser till – och en som dess data visar är hög i brottslighet – kan den debitera dig en högre avgift, att veta att du sannolikt inte kommer att vägra.

    Juridiska utmaningar

    Och det är inte bara spekulationer.

    I ett försök att lura brottsbekämpande myndigheter som försöker utreda företaget, Uber hittade faktiskt ett sätt att identifiera statliga tillsynsmyndigheter som försökte använda dess app och hindrade dem sedan från att få åkattraktioner.

    Det är en anledning till att lagstiftare och tillsynsmyndigheter har diskuterat det svåra, relaterade roller för beteendevetenskap och teknik i flera år. Och vissa företag, Uber i synnerhet, har undersökts för en mängd dåliga affärsmetoder, från diskriminering till missbruk av användardata.

    Men det mesta av den manipulation vi har identifierat och oroar oss för är inte uttryckligen olaglig. Och eftersom tillsynsmyndigheter ofta inte kan hålla jämna steg med den ständigt föränderliga användningen av teknik och valarkitektur, det kommer sannolikt att förbli så.

    Med tanke på avsaknaden av väldefinierade och verkställbara rättsliga skyddsräcken, plattformsföretagens benägenhet att utnyttja beteendevetenskap på användarnas bekostnad kommer i stort sett att förbli okontrollerad.

    En etisk kod

    En lösning, enligt vår uppfattning, håller på att upprätta en etisk kod för plattformsföretag att följa. Och om de inte adopterar det frivilligt, investerare, anställda och användare skulle kunna kräva det.

    Sedan mitten av 1900-talet, skrivna etiska uppförandekoder har varit en del av amerikanska företag. De juridiska och medicinska professionerna har förlitat sig på dem i årtusenden. Och forskning tyder på att de är effektiva på att uppmuntra etiskt beteende hos företag.

    Vi har granskat hundratals etiska koder, inklusive sådana som är inriktade på teknik- och dataföretag. Baserat på vår forskning, vi uppmanar digitala plattformar att anta fem etiska riktlinjer:

    1. All valarkitektur som används på en plattform bör vara helt transparent. Plattformar bör avslöja när de använder beteendevetenskapens verktyg för att påverka användarnas beteende
    2. Användare ska kunna göra val på plattformen fritt och enkelt, och valarkitekter bör begränsa beteendeinterventioner till påminnelser eller uppmaningar som är minst skadliga för användarens autonomi
    3. Plattformar bör undvika att "nudga" användare på ett sätt som utnyttjar omedvetet och irrationellt beslutsfattande baserat på impulser och känslor. Ny forskning visar att transparent valarkitektur kan fungera lika bra
    4. Plattformar bör erkänna den makt de besitter och se till att inte utnyttja de marknader de har skapat, inklusive genom att missbruka informationsasymmetrier mellan dem själva och användarna eller motsätta sig rimliga regler
    5. Plattformar bör undvika att använda valarkitektur som avskräcker användare från att agera i sitt eget bästa. Som Nobelprisvinnande beteendeekonomen Richard Thaler uttryckte det, vi ska bara "nuffa för gott".

    Stor teknik och beteendevetenskap är nu integrerade på sätt som gör företag väldigt framgångsrika, från surrande tandborstar som gör att det verkar givande att rengöra tänderna till att använda texter för att knuffa fattigare mammor att använda sjukvård.

    Även om resultaten avsevärt kan förbättra våra liv, det gör det också enklare än någonsin för företag att manipulera användare för att förbättra sina resultat.

    Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com