• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Att lära chatbotar hur man gör rätt

    AI-chatbotar kämpar fortfarande för att förstå effekten av sina ord. Kredit:Shutterstock

    I denna tid av information – och desinformation – utmanar teknikens framsteg oss att tänka om hur språk fungerar.

    Ta konversationschatbotar, till exempel. Dessa datorprogram efterliknar mänskliga samtal via text eller ljud. Madrassföretaget Casper skapade Insomnobot-3000 för att kommunicera med människor som har sömnstörningar. Det ger den som har svårt att sova möjlighet att prata med "någon" medan alla andra sover.

    Men Insomnobot-3000 chattar inte bara med sina användare, besvarar frågor. Det syftar till att minska den ensamhet som drabbas av sömnlöshet. Dess ord har potential att ha en inverkan på den mänskliga användaren.

    När det är mest grundläggande, språket gör saker med ord. Det är en form av handling som gör mer än att bara konstatera fakta.

    Denna ganska raka iakttagelse gjordes på 1950-talet av en obskyr och något excentrisk Oxford University filosof, John Langshaw Austin. I sin bok, Hur man gör saker med ord , Austin utvecklade begreppet performativt språk.

    Vad Austin menade var att språket inte bara beskriver saker, den "presterar" faktiskt. Till exempel, om jag säger att jag testamenterar min mormors pärlhalsband till min dotter, Jag gör mer än att bara beskriva eller rapportera något. Jag gör en meningsfull handling.

    Austin klassificerade också tal i tre delar:Betydelse, användning och påverkan. Hans studie och rön om språk blev känd som tal-handlingsteori. Denna teori var viktig inte bara inom filosofin, men även inom andra områden som juridik, litteratur och feministiskt tänkande.

    Ett recept för chatbotbranschen

    Med detta i åtanke, vad kan Austins teori säga oss om dagens konversationschatbotar?

    Min forskning fokuserar på skärningspunkten mellan lag och språk, och vad Austins teori har att säga om vår förståelse av hur kreativt maskineri förändrar traditionella samhälleliga verksamheter, såsom AI som skriver romaner, robo-reportrar skriver nyhetsartiklar, massiva öppna onlinekurser (MOOCs) som ersätter klassrum och professorer med hjälp av programvara för uppsatsbetyg.

    Den nuvarande chatbotteknologin är inriktad på att förbättra chatbotarnas förmåga att efterlikna betydelsen och användningen av tal. Ett bra exempel på detta är Cleverbot.

    Men chatbotindustrin bör fokusera på den tredje aspekten av Austins teori — att bestämma effekten av chatbotens tal på personen som använder den.

    Säkert, om vi kan lära chatbots att efterlikna betydelsen och användningen av mänskligt tal, borde vi också kunna lära dem att imitera dess inverkan?

    Att lära sig ha en konversation

    De senaste chatbotarna är beroende av banbrytande maskininlärning, känd som djupinlärning.

    Maskininlärning är en tillämpning av AI som kan lära sig utan mänsklig hjälp. Djup lärning, som är modellerad efter nätverket av neuroner i den mänskliga hjärnan, tar maskininlärning ännu längre. Data matas in i djupa artificiella neurala nätverk som är designade för att efterlikna mänskligt beslutsfattande.

    Chatbots designade med denna neurala nätverksteknik papegojar inte bara vad som sägs eller producerar färdiga svar. Istället, de lär sig att föra en konversation.

    Chatbots analyserar enorma mängder mänskligt tal, och sedan fatta beslut om hur du ska svara efter att ha bedömt och rangordnat hur väl möjligheterna speglar det talet. Men trots dessa förbättringar, dessa nya bots lider fortfarande av enstaka faux pas eftersom de huvudsakligen koncentrerar sig på betydelsen och användningen av deras tal.

    Tidigare chatbots var mycket värre. På mindre än 24 timmar efter att ha släppts på Twitter 2016, Microsofts chatbot, ett AI-system som heter Tay (en förkortning bildad från "Thinking About You") och modellerat efter en tonårsflickas språkmönster, hade mer än 50, 000 följare och hade producerat över 100, 000 tweets.

    När Tay hälsade världen, hennes första tweets var oskyldiga nog. Men så började hon härma sina följare.

    Hon blev snabbt en rasist, sexistisk och rent ut sagt osmaklig chatbot. Microsoft tvingades ta henne offline.

    Tay hade varit helt beroende av de uppgifter som matades till henne — och, mer viktigt, på personerna som skapade och formade denna data. Hon förstod inte vad de mänskliga användarna "gjorde" med språket. Hon förstod inte heller effekterna av sitt tal.

    Att lära chatbotar fel sak

    Vissa forskare tror att ju mer data chatbots samlar in, desto mindre anstöt kommer de att orsaka.

    Men att ta hänsyn till alla möjliga svar på en given fråga kan ta lång tid eller förlita sig på mycket datorkraft. Plus, denna lösning att samla in mer data om betydelse och användning är egentligen bara historien som upprepar sig. Microsofts "Zo, "en efterträdare till Tay, brottas fortfarande med svåra frågor om politik.

    Enkelt uttryckt, chatbot-industrin är på väg åt fel håll — chatbot-branschen lär chatbotar fel sak.

    Transformativa chatbots

    En bättre chatbot skulle inte bara titta på betydelsen och användningen av ord, men också konsekvenserna av vad den säger.

    Tal fungerar också som en form av social handling. I hennes bok Könsproblem , Filosofen Judith Butler tittade på språkets performativitet och hur det ökar vår förståelse av kön. Hon såg kön som något man gör, snarare än något man är — att det är konstruerat genom vardagligt tal och gester.

    Konversationschatbotar är avsedda för olika målgrupper. Att fokusera på effekten av tal skulle kunna förbättra kommunikationen eftersom chatboten också skulle vara oroad över effekten av dess ord.

    I en teknisk industri som utmanas av sin brist på mångfald och inkludering, en sådan chatbot kan vara transformerande, som Butler har visat oss i konstruktionen av genus.

    Det finns, självklart, en varning. Att fokusera på språkets inverkan är den avgörande egenskapen hos bluffar, propaganda och desinformation — "falska nyheter" — en medvetet konstruerad talhandling, handlar bara om att uppnå effekt. Oavsett dess form, falska nyheter härmar bara journalistik och skapas bara för att uppnå en effekt.

    Austins teori om performativitet i språk hjälpte oss att ta reda på hur man pratar med varandra.

    Chatbotindustrin borde nu koncentrera sina ansträngningar på effekten av tal, utöver det arbete som redan gjorts med ordens betydelse och användning. För en chatbot kan bara vara verkligt konverserande om den engagerar sig i alla aspekter av en talhandling.

    Denna artikel publicerades ursprungligen på The Conversation. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com