Upphovsman:CC0 Public Domain
De val vi gör i stora gruppmiljöer – som i onlineforum och sociala medier – kan verka ganska automatiska för oss. Men vår beslutsprocess är mer komplicerad än vi vet. Så, forskare har arbetat med att förstå vad som ligger bakom den till synes intuitiva processen.
Nu, Ny forskning från University of Washington har upptäckt att i stora grupper av i huvudsak anonyma medlemmar, människor gör val baserat på en modell av "gruppens sinne" och en föränderlig simulering av hur ett val kommer att påverka det teoretiserade sinnet.
Med hjälp av ett matematiskt ramverk med rötter i artificiell intelligens och robotik, UW-forskare kunde avslöja processen för hur en person gör val i grupper. Och, de fann också att de kunde förutsäga en persons val oftare än mer traditionella beskrivande metoder. Resultaten publicerades onsdag, 27 november, i Vetenskapliga framsteg .
"Våra resultat är särskilt intressanta i ljuset av sociala mediers ökande roll när det gäller att diktera hur människor beter sig som medlemmar i vissa grupper, " sa seniorförfattaren Rajesh Rao, CJ och Elizabeth Hwang professor vid UW:s Paul G. Allen School of Computer Science &Engineering och meddirektör för Center for Neurotechnology.
"I onlineforum och sociala mediegrupper, de kombinerade åtgärderna från anonyma gruppmedlemmar kan påverka din nästa åtgärd, och omvänt, din egen handling kan förändra hela gruppens framtida beteende, " sa Rao.
Forskarna ville ta reda på vilka mekanismer som är på gång i sådana här miljöer.
I tidningen, de förklarar att mänskligt beteende bygger på förutsägelser om framtida tillstånd i miljön – en bästa gissning om vad som kan hända – och graden av osäkerhet om den miljön ökar "drastiskt" i sociala miljöer. För att förutsäga vad som kan hända när en annan människa är inblandad, en person gör en modell av den andres sinne, kallas en teori om sinne, och sedan använder den modellen för att simulera hur ens egna handlingar kommer att påverka det andra "sinne".
Även om denna handling fungerar bra för en-mot-en-interaktioner, förmågan att modellera individuella sinnen i en stor grupp är mycket svårare. Den nya forskningen tyder på att människor skapar en genomsnittlig modell av ett "sinne" som representerar gruppen även när de andras identiteter inte är kända.
För att undersöka komplexiteten som uppstår i gruppbeslut, forskarna fokuserade på "volontärens dilemmauppgift, " där ett fåtal individer får utstå vissa kostnader för att gynna hela gruppen. Exempel på uppgiften inkluderar bevakningstjänst, blodgivning och kliva fram för att stoppa ett våldsdåd på offentlig plats, förklarar de i tidningen.
För att härma denna situation och studera både beteende- och hjärnans reaktioner, forskarna satte försökspersoner i en MRT, en och en, och fick dem att spela ett spel. I spelet, kallas ett allmännyttigt spel, ämnets bidrag till en gemensam pott med pengar påverkar andra och avgör vad alla i gruppen får tillbaka. En försöksperson kan bestämma sig för att bidra med en dollar eller bestämma sig för att "snålskjuta" - det vill säga, inte bidra till att få belöningen i hopp om att andra ska bidra till potten.
Om de totala bidragen överstiger ett förutbestämt belopp, alla får två dollar tillbaka. Försökspersonerna spelade dussintals rundor med andra de aldrig träffat. Utan att veta om ämnet, de andra simulerades faktiskt av en dator som efterliknade tidigare mänskliga spelare.
"Vi kan nästan få en inblick i ett mänskligt sinne och analysera dess underliggande beräkningsmekanism för att fatta kollektiva beslut, " sa huvudförfattaren Koosha Khalvati, en doktorand i Allen School. "När man interagerar med ett stort antal människor, vi fann att människor försöker förutsäga framtida gruppinteraktioner baserat på en modell av en genomsnittlig gruppmedlems avsikt. Viktigt, de vet också att deras egna handlingar kan påverka gruppen. Till exempel, de är medvetna om att även om de är anonyma för andra, deras själviska beteende skulle minska samarbetet i gruppen i framtida interaktioner och möjligen ge oönskade resultat."
I deras studie, forskarna kunde tilldela matematiska variabler till dessa handlingar och skapa sina egna datormodeller för att förutsäga vilka beslut personen kan fatta under leken. De fann att deras modell förutsäger mänskligt beteende betydligt bättre än förstärkningsinlärningsmodeller – det vill säga, när en spelare lär sig att bidra baserat på hur föregående omgång gjorde eller inte betalade ut oavsett andra spelare – och mer traditionella beskrivande tillvägagångssätt.
Med tanke på att modellen ger en kvantitativ förklaring till mänskligt beteende, Rao undrade om det kan vara användbart när man bygger maskiner som interagerar med människor.
"I scenarier där en maskin eller programvara interagerar med stora grupper av människor, våra resultat kan innehålla några lektioner för AI, " sa han. "En maskin som simulerar "en grupps sinne" och simulerar hur dess handlingar påverkar gruppen kan leda till en mer människovänlig AI vars beteende är bättre anpassat till människors värderingar."