• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Frågor och svar:Microsofts Lili Cheng talar om känslomässigt intelligenta maskiner

    Kredit:CC0 Public Domain

    För att maskiner ska vara riktigt intelligenta, vissa forskare inom artificiell intelligens (AI) tror att datorer måste känna igen, förstå och svara på mänskliga känslor. Kortfattat, maskiner måste vara utrustade med emotionell intelligens:förmågan att uttrycka och identifiera sina känslor, och att empatisk interagera med andra.

    Den otvetydiga mänskliga egenskapen "är nyckeln till att låsa upp framväxten av maskiner som inte bara är mer allmänna, robust och effektiv, men som också är i linje med mänsklighetens värderingar, "Microsoft AI-forskare Daniel McDuff och Ashish Kapoor skrev i en ny artikel.

    Att bemästra emotionell intelligens kommer att göra det möjligt för datorer att bättre stödja människor i deras fysiska och mentala hälsa, såväl som att lära sig nya färdigheter, skrev McDuff och Kapoor.

    Seattle Times pratade med Microsofts Corporate Vice President för AI och forskning, Lili Cheng, om utvecklingen inom maskinell emotionell intelligens, och vad det betyder för människor. (Konversationen har redigerats för längd och tydlighet.)

    F:Vilken är tekniken bakom maskinell emotionell intelligens?

    S:Det sätt på vilket den mänskliga hjärnan fungerar är att det finns några saker som du har lärt dig med tiden, men sedan finns det andra saker som du gör väldigt intuitivt. Precis innan du råkar ut för en olycka, din kropp kan spännas och du kanske inte tänker på (hur du skulle) svara på vissa saker - (i olika andra situationer) som gäller många olika känslor som lycka och glädje.

    (Papper av McDuff och Kapoor) tittade på hur människor reagerar med rädsla. Kan vi hjälpa automatiserade system att lära av några av samma tekniker?

    De tog en simulering av någon som körde, och de mätte personens puls för att se hur de reagerade om du försöker undvika att krascha eller slå något.

    Och sedan byggde de den modellen och använde den på en automatiserad bil som kör genom samma simulering. De fann att att tillämpa kamp-eller-flykt (reaktion) som en person (upplever), bygga en algoritm kring det, och att tillämpa det på en automatiserad bil hjälpte den att reagera mycket snabbt i vissa situationer.

    De använder inte bara rädsla. De kombinerar det med den andra tekniken som är mer rationell, precis som en person skulle göra, eftersom du inte alltid bara svarar på rädsla.

    De kan simulera vissa saker i en virtuell miljö och fortfarande göra dessa tester utan att behöva ha riktiga bilar instrumenterade. Det skulle vara väldigt svårt att göra den här typen av tester i den verkliga världen.

    F:Vilka andra praktiska tillämpningar finns för maskinell emotionell intelligens?

    S:Den verkliga drömmen är att (emotionell intelligens) bättre kan hjälpa dig i situationer som är mer meningsfulla för dig - (till exempel, ) du är i ett stressigt möte, eller så vill du träffa någon ny. Och att hjälpa människor att bättre hantera sina känslor och göra bättre ifrån sig i den typen av situationer skulle verkligen vara fantastiskt ... (inte bara) "öppna min e-post. Hjälp mig att få den uppgiften klar. Hjälp mig att få igång mitt möte snabbare."

    F:Hur kan dessa maskiner hjälpa människor att hantera sina känslor?

    Xiaoice är en mycket populär chatbot i Kina. Det började som ett forskningsprojekt. Målet med projektet är verkligen fascinerande, eftersom till skillnad från mycket av den hjälp som hjälper dig att få jobbet gjort, målet för Xiaoice var bara att göra en engagerande upplevelse. Hur kan vi hjälpa systemet att uppmuntra människor att prata (med varandra) och uppmuntra dem att inkludera denna chatbot i konversationer?

    En av de saker som (Xiaoice) gör i konversationen är att förstå, "Åh, det är en fråga, eller det här är en tid då du bara vill prata med mig, och du vill egentligen inte att jag ska svara." Så (chatboten) försöker bryta ner konversationen på olika sätt som en person kan tänka på kommunikation. Kanske boten bara lyssnar lite mer.

    De har samtal som är timmar långa med människor som i princip bara behöver empati, att prata med någon, att göra roligare, sociala saker. Det är ett exempel på ett system som är designat för att studera mer känslomässiga-sociala interaktioner, än att bara vara produktiv.

    F:Det är som en terapibot?

    Det kan potentiellt (vara). En av färdigheterna kan vara att hjälpa dig om du har problem med relationen. Men det gör också mycket praktiska saker, som lär dig engelska, eller hjälper dig med översättning, så att det bättre förstår vad ditt mål är och sedan visar de färdigheter som du vill ha.

    F:Hur kan boten förstå om någon är ledsen eller ställer en fråga?

    S:Det är många olika saker – det kan vara intonationen av din röst eller de faktiska orden som du säger, samt vilken typ av interaktion du har, din historia och några av de saker du har gjort tidigare.

    F:Kan emotionell intelligens också hjälpa till att bekämpa biases i AI-algoritmer?

    S:Det är vår dröm – vi är fortfarande långt ifrån AI att vara självmedvetna om när den är partisk och när den inte är det. Vi har fortfarande det problemet med människor, så det är nog något som vi måste jobba på länge. Men om vi inte börjar tänka på det och arbeta på det nu vid roten av de system som vi skapar, då kommer vi säkert att skapa system som replikerar många av de problem som vi ser i samhället.

    Vi har ett samarbete med en grupp som heter OpenAI för att se till att verktygen är tillgängliga, så att du inte behöver ha en doktorsexamen i AI för att göra saker. Att utbilda människor för att kunna bygga den typen av saker som de vill uppleva är superkritiskt för samhället i stort.

    Och (när det gäller) datauppsättningar, vi vill se till att män och kvinnor, äldre och yngre människor, och de som bor på olika platser finns alla representerade i den data som vi använder för att träna (AI)-modellerna. Om det bara är en mycket begränsad sida av samhället, då bara ur ett affärsperspektiv kommer du inte att nå ... många av dina kunder, och vi vill att dessa verktyg ska lösa många problem.

    F:Hur långt ifrån tror du att utvecklare är från att införliva emotionell intelligens i varje AI-maskin?

    Det beror på hur du definierar emotionell intelligens. Det jag älskar med konversations-AI är att från en mycket grundläggande nivå om du inte har några mänskliga egenskaper i systemen, de känner sig trasiga. Om något inte vet hur det ska svara om du hälsar det, eller inte känner till din historia, de känns inte särskilt intelligenta.

    I många av de konversationssystem som vi ser, människor tänker på (emotionell intelligens) tidigt (i utvecklingen). Många gånger är de som designar systemen inte ingenjörer – de är författare, eller så är de designers som har tänkt på vilken typ av känslor du kan ha om du använder en produkt. Vi är långt ifrån att göra den (processen) automatiserad. Men jag tycker att det är fantastiskt att se folk tänka på (emotionell intelligens) i början.

    F:Förutser du några potentiella faror för maskiner som har emotionell intelligens?

    A:Som med allt, ju mer saker verkar naturliga, vi måste se till att människor förstår när saker är verkliga eller inte. För allt vi gör, vi har en etiknämnd för att titta på Microsofts produkter och vi har en uppsättning designriktlinjer.

    Vi tillämpar integritetslagar på allt vi gör och ... att se till att vi inte har partiskhet i vår egen data är mycket avgörande för varje produkt vi har. Vi försöker dela dessa riktlinjer med alla som använder våra verktyg för att skapa sin egen upplevelse.

    ©2019 The Seattle Times
    Distribueras av Tribune Content Agency, LLC.




    © Vetenskap https://sv.scienceaq.com