• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  •  Science >> Vetenskap >  >> Andra
    Valdesinformation:Hur AI-drivna bots fungerar och hur du kan skydda dig från deras inflytande

    Kredit:Pixabay/CC0 Public Domain

    Sociala medieplattformar har blivit mer än bara verktyg för kommunikation. De har utvecklats till livliga arenor där sanning och lögn kolliderar. Bland dessa plattformar framstår X som en framstående slagfält. Det är en plats där desinformationskampanjer frodas, vidmakthållna av arméer av AI-drivna botar programmerade att påverka opinionen och manipulera berättelser.



    AI-drivna bots är automatiserade konton som är designade för att efterlikna mänskligt beteende. Botar på sociala medier, chattplattformar och konversations-AI är en del av det moderna livet. De behövs till exempel för att få AI-applikationer att fungera effektivt.

    Men vissa bots är skapade med illvilliga avsikter. Chockerande nog utgör bots en betydande del av X:s användarbas. Under 2017 uppskattades det att det fanns cirka 23 miljoner sociala bots som stod för 8,5 % av de totala användarna. Mer än två tredjedelar av tweets härrörde från dessa automatiserade konton, vilket förstärker räckvidden för desinformation och grumlar vattnet i det offentliga samtalet.

    Så fungerar botar

    Socialt inflytande är nu en vara som kan förvärvas genom att köpa bots. Företag säljer falska följare för att på konstgjord väg öka populariteten för konton. Dessa följare finns tillgängliga till anmärkningsvärt låga priser, med många kändisar bland köparna.

    Under vår forskning upptäckte kollegor och jag till exempel en bot som hade postat 100 tweets som erbjöd följare till försäljning.

    Med hjälp av AI-metoder och ett teoretiskt tillvägagångssätt som kallas aktör-nätverksteori, dissekerade mina kollegor och jag hur skadliga sociala bots manipulerar sociala medier och påverkar vad människor tycker och hur de agerar med alarmerande effekt. Vi kan se om falska nyheter genererades av en människa eller en bot med en noggrannhetsgrad på 79,7 %. Det är avgörande att förstå hur både människor och AI sprider desinformation för att förstå hur människor använder AI för att sprida desinformation.

    För att ta ett exempel, undersökte vi aktiviteten för ett konto som heter "True Trumpers" på Twitter.

    Kontot etablerades i augusti 2017, har inga följare och ingen profilbild, men hade vid tidpunkten för undersökningen postat 4 423 tweets. Dessa inkluderade en serie helt påhittade berättelser. Det är värt att notera att denna bot kommer från ett östeuropeiskt land.

    Forskning som denna påverkade X att begränsa aktiviteterna för sociala bots. Som svar på hotet om manipulation av sociala medier har X implementerat tillfälliga läsbegränsningar för att stävja dataskrapning och manipulation. Verifierade konton har begränsats till att läsa 6 000 inlägg per dag, medan overifierade konton kan läsa 600 per dag. Det här är en ny uppdatering, så vi vet ännu inte om den har varit effektiv.

    Kan vi skydda oss själva?

    Det åligger dock användarna att vara försiktiga och urskilja sanning från lögn, särskilt under valperioder. Genom att kritiskt utvärdera information och kontrollera källor kan användare spela en roll i att skydda integriteten hos demokratiska processer från angrepp från bots och desinformationskampanjer på X. Varje användare är i själva verket en frontlinjeförsvarare av sanning och demokrati. Vaksamhet, kritiskt tänkande och en hälsosam dos skepticism är viktiga rustningar.

    Med sociala medier är det viktigt för användare att förstå strategierna som används av skadliga konton.

    Skadliga aktörer använder ofta nätverk av bots för att förstärka falska berättelser, manipulera trender och snabbt sprida desinformation. Användare bör iaktta försiktighet när de stöter på konton som uppvisar misstänkt beteende, såsom överdrivna inlägg eller upprepade meddelanden.

    Desinformation sprids också ofta genom dedikerade falska nyhetswebbplatser. Dessa är utformade för att imitera trovärdiga nyhetskällor. Användare uppmanas att verifiera nyhetskällornas äkthet genom att korshänvisa information med välrenommerade källor och konsultera faktakontrollerande organisationer.

    Självmedvetenhet är en annan form av skydd, särskilt från social ingenjörstaktik. Psykologisk manipulation används ofta för att lura användare att tro på falskheter eller engagera sig i vissa handlingar. Användare bör vara vaksamma och kritiskt bedöma innehållet de möter, särskilt under perioder av ökad känslighet som val.

    Genom att hålla oss informerade, engagera oss i civil diskurs och förespråka transparens och ansvarsskyldighet kan vi tillsammans forma ett digitalt ekosystem som främjar förtroende, transparens och välgrundat beslutsfattande.

    Tillhandahålls av The Conversation

    Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com