• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Det finns en anledning till att AI är så dålig på konversation

    Upphovsman:Phonlamai Photo/Shutterstock

    "Jag är ledsen, Jag förstod inte riktigt det. "Alla som någonsin har försökt att ha ett djupare samtal med en virtuell assistent som Siri vet hur frustrerande det kan vara. Det är trots att AI -system som det alltmer tränger in i våra liv, med nya framgångshistorier på nästan daglig basis. Inte bara hjälper AIs nu radiologer att upptäcka tumörer, de kan fungera som kattavvisande och till och med upptäcka signaler från potentiell främmande teknik från rymden.

    Men när det gäller grundläggande mänskliga förmågor, som att ha en bra chatt, AI kommer till kort. Det kan helt enkelt inte ge humor, värme och förmågan att bygga sammanhängande och personlig rapport som är avgörande i mänskliga samtal. Men varför är det och kommer det någonsin att nå dit?

    Chatbots har faktiskt kommit långt sedan deras tidiga början, med MIT:s Eliza på 1960 -talet. Eliza baserades på en uppsättning noggrant utformade regler som skulle ge intrycket av att vara en aktiv lyssnare och simulera en session med en psykoterapeut.

    System som Eliza var duktiga på att ge ett sofistikerat första intryck men hittades lätt efter några samtalsvarv. Sådana system byggdes på ansträngningar att samla så mycket världskunskap som möjligt, och sedan formalisera det till begrepp och hur de förhåller sig till varandra. Begrepp och relationer byggdes vidare in i grammatik och lexikoner som skulle hjälpa till att analysera och generera naturligt språk från mellanliggande logiska representationer. Till exempel, världskunskap kan innehålla fakta som "choklad är ätbar" och "sten är inte ätbar".

    Eliza.

    Att lära av data

    Dagens konversations -AI -system är olika genom att de riktar sig till öppen domänkonversation - det finns ingen gräns för antalet ämnen, frågor eller instruktioner en människa kan ställa. Detta uppnås huvudsakligen genom att helt undvika alla typer av mellanrepresentation eller tydlig kunskapsteknik. Med andra ord, framgången med nuvarande samtals -AI är baserad på att det inte känner till och inte förstår någonting om världen.

    Den grundläggande djupinlärningsmodellen som ligger till grund för det mest aktuella arbetet inom naturlig språkbehandling kallas ett återkommande neuralt nätverk, varigenom en modell förutsäger en utmatningssekvens av ord baserat på en inmatningssekvens av ord med hjälp av en sannolikhetsfunktion som kan härledas från data. Med tanke på användarinmatningen "Hur mår du?" modellen kan avgöra att ett statistiskt frekvent svar är "Jag mår bra."

    Kraften hos dessa modeller ligger delvis i dess enkelhet - genom att undvika mellanliggande representationer, mer data leder vanligtvis till bättre modeller och bättre utdata. Att lära sig för en AI liknar mycket hur vi lär oss:smälta en mycket stor träningsdatauppsättning och jämför den med kända men osynliga data (testuppsättning). Baserat på hur bra AI presterar mot testuppsättningen, AI:s prediktiva modell justeras sedan för att få bättre resultat innan testet upprepas.

    Men hur avgör du hur bra det är? Du kan titta på yttrandenas grammatik, hur "mänskliga" de låter, eller sammanhanget i ett bidrag i en sekvens av samtalsvarv. Utgångarnas kvalitet kan också bestämmas som en subjektiv bedömning av hur nära de uppfyller förväntningarna. MIT:s DeepDrumpf är ett bra exempel - ett AI -system som är utbildat med hjälp av data från Donald Trumps Twitter -konto och som otrevligt låter precis som honom, kommentera ett antal ämnen som vård, kvinnor, eller invandring.

    Dock, problem börjar när modeller får "fel" ingångar. Microsofts Tay var ett försök att bygga upp en konversations-AI som gradvis skulle "förbättras" och bli mer mänsklig genom att ha samtal på Twitter. Tay förvandlades ökänt från en filantrop till en politisk mobbare med en osammanhängande och extremistisk världsuppfattning inom 24 timmar efter utplaceringen. Det togs snart offline.

    När maskiner lär av oss, de tar också på oss våra brister - våra ideologier, humör och politiska åsikter. Men till skillnad från oss, de lär sig inte att styra eller utvärdera dem - de mappar bara en ingångssekvens till en utgångssekvens, utan filter eller moralisk kompass.

    Detta har, dock, har också framställts som en fördel. Vissa hävdar att de senaste framgångarna med IBM:s projektdebattör, en AI som kan bygga "övertygande bevisbaserade argument" om ett visst ämne, beror på dess brist på partiskhet och känslomässigt inflytande. Att göra detta, den letar upp data i en stor samling av dokument och drar ut information för att uttrycka motsatt uppfattning till personen den debatterar med.

    Nästa steg

    Men även om mer data kan hjälpa AI att lära sig att säga mer relevanta saker, kommer det någonsin att låta mänskligt? Känslor är viktiga i mänskligt samtal. Att känna igen sorg eller lycka i en annan persons röst eller till och med sms är otroligt viktigt när vi skräddarsyr vårt eget svar eller gör en bedömning om en situation. Vi måste vanligtvis läsa mellan raderna.

    Konversations -AI är i huvudsak psykopater, utan känslor eller empati. Detta blir smärtsamt klart när vi skriker vårt kundnummer i telefon för sjunde gången, i hopp om att systemet kommer att känna igen vår smärta och förmedla oss till en representant för mänsklig kundservice.

    Liknande, konversations -AI brukar inte förstå humor eller sarkasm, som de flesta av oss anser vara avgörande för en bra chatt. Även om enskilda program som är utformade för att lära AI att upptäcka sarkastiska kommentarer bland en rad meningar har haft viss framgång, ingen har lyckats integrera denna färdighet i en verklig samtals -AI än.

    Helt klart är nästa steg för konversations -AI att integrera denna och andra sådana "mänskliga" funktioner. Tyvärr, vi har ännu inte tillgängliga tekniker för att lyckas med detta. Och även om vi gjorde det, frågan kvarstår att ju mer vi försöker bygga in i ett system, desto mer processorkraft det kommer att kräva. Så det kan dröja innan vi har tillgängliga datortyper som gör detta möjligt.

    AI -system saknar uppenbarligen en djupare förståelse av ordens betydelse, de politiska åsikter de representerar, de förmedlade känslorna och ordens potentiella inverkan. Detta gör dem långt ifrån att faktiskt låta mänskliga. Och det kan ta ännu längre tid innan de blir sociala följeslagare som verkligen förstår oss och kan föra en konversation i ordets mänskliga bemärkelse.

    Denna artikel publiceras från The Conversation under en Creative Commons -licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com