Framtidens AI -system kommer att vara mer anpassade till nyanser av mänskligt beteende. Upphovsman:Shutterstock
En av de heliga graalerna i utvecklingen av artificiell intelligens (AI) ger maskiner möjligheten att förutsäga avsikt när de interagerar med människor.
Vi människor gör det hela tiden och utan att ens vara medvetna om det:vi observerar, vi lyssnar, vi använder vår tidigare erfarenhet för att resonera om vad någon gör, varför de gör det för att komma med en förutsägelse om vad de ska göra härnäst.
Just nu, AI kan göra ett rimligt jobb för att upptäcka en annan persons avsikt (med andra ord, i efterhand). Eller så kan den till och med ha en lista med fördefinierade, möjliga svar som en människa kommer att svara med i en given situation. Men när ett AI -system eller en maskin bara har några ledtrådar eller delvisa observationer att göra, dess svar kan ibland vara lite ... robotiska.
Människor och maskiner
Dr Lina Yao, universitetslektor vid UNSW Engineering, är huvudutredare i ett projekt för att få AI-system och gränssnitt mellan människa och maskin snabbare med de finare nyanser av mänskligt beteende. Hon säger att det slutliga målet är att hennes forskning ska användas i autonoma AI -system, robotar och till och med cyborgs, men det första steget är inriktat på gränssnittet mellan människor och intelligenta maskiner.
"Vad vi gör i dessa tidiga faser är att hjälpa maskiner att lära sig att agera som människor baserat på våra dagliga interaktioner och de handlingar som påverkas av vårt eget omdöme och förväntningar - så att de kan bli bättre placerade att förutsäga våra avsikter, "säger hon." I sin tur detta kan till och med leda till nya handlingar och egna beslut, så att vi upprättar ett samarbetsförhållande. "
Dr Yao skulle vilja se medvetenhet om mindre uppenbara exempel på mänskligt beteende integrerat i AI -system för att förbättra avsiktsprognoser. Saker som gester, ögonrörelse, hållning, ansiktsuttryck och till och med mikrouttryck-de fysiska tecknen när någon reagerar känslomässigt på en stimulans men försöker hålla den gömd.
Detta är en hög order, eftersom människor själva inte är ofelbara när de försöker förutsäga en annan persons avsikt.
"Ibland kan människor vidta vissa åtgärder som avviker från sina vanliga vanor, som kan ha utlösts av den yttre miljön eller påverkan av en annan persons handlingar, " hon säger.
Alla rätta drag
Ändå, att göra AI -system och maskiner mer fininställda på hur människor initierar en handling är en bra början. För detta ändamål, Dr Yao och hennes team utvecklar ett prototyp-gränssnittssystem mellan människa och maskin som är utformat för att fånga avsikten med mänsklig rörelse.
"Vi kan lära oss och förutsäga vad en människa skulle vilja göra när hon bär en EEG [elektroencefalogram] -anordning, "Dr Yao säger.
"Medan du bär en av dessa enheter, när personen gör en rörelse, deras hjärnvågor samlas in som vi sedan kan analysera.
"Senare kan vi be folk tänka på att röra sig med en viss handling - som att höja sin högra arm. Så att inte faktiskt lyfta armen, men tänker på det, och vi kan sedan samla tillhörande hjärnvågor. "
Dr Yao säger att inspelning av dessa data har potential att hjälpa människor som inte kan röra sig eller kommunicera fritt på grund av funktionshinder eller sjukdom. Hjärnvågor som spelats in med en EEG -enhet kan analyseras och användas för att flytta maskiner som en rullstol, eller till och med för att meddela en begäran om hjälp.
"Någon på en intensivvårdsavdelning kanske inte har förmågan att kommunicera, men om de hade en EEG -enhet, mönstret i deras hjärnvågor kunde tolkas så att de hade ont eller ville sitta upp, till exempel, "Dr Yao säger.
"Så en avsikt att flytta eller agera som inte var fysiskt möjligt, eller inte kan uttryckas, kunde förstås av en observatör tack vare denna interaktion mellan människa och maskin. Tekniken finns redan för att uppnå detta, det handlar mer om att sätta ihop alla arbetsdelar. "
Partners för livet
Dr Yao säger att det yttersta målet med att utveckla AI -system och maskiner som hjälper människor är att de inte bara ska ses som verktyg, men som partner.
"Det vi gör är att försöka utveckla några bra algoritmer som kan användas i situationer som kräver beslutsfattande, " hon säger.
"Till exempel, i en räddningssituation, ett AI -system kan användas för att hjälpa räddare att ta den optimala strategin för att lokalisera en eller flera personer mer exakt. Ett sådant system kan använda lokaliseringsalgoritmer som använder GPS -platser och annan data för att identifiera människor, samt bedöma tidsperioden som behövs för att komma till någon, och göra rekommendationer om det bästa tillvägagångssättet.
"I slutändan skulle en människa ringa det sista samtalet, men det viktiga är att AI är en värdefull samarbetspartner i en så dynamisk miljö. Denna typ av teknik används redan idag. "
Men medan du arbetar med människor i partnerskap är en sak; att arbeta helt oberoende av dem är långt på banan. Dr Yao säger att autonoma AI -system och maskiner en dag kan se på oss som tillhör en av tre kategorier efter att ha observerat vårt beteende:peer, åskådare eller konkurrent. Även om detta kan verka kallt och avlägset, Dr Yao säger att dessa kategorier dynamiskt kan förändras från en till en annan beroende på deras utvecklingssammanhang. Och i alla fall, hon säger, denna typ av kognitiv kategorisering är faktiskt väldigt mänsklig.
"När du tänker på det, vi gör ständigt samma bedömningar om människorna omkring oss varje dag, " hon säger.