Att lära sig hur människor interagerar med AI är ett viktigt steg för att integrera maskiner i samhället på fördelaktiga sätt. Upphovsman:Pixabay
Att lära sig hur människor interagerar med artificiell intelligens-aktiverade maskiner – och att använda den kunskapen för att förbättra människors förtroende för AI – kan hjälpa oss att leva i harmoni med det ständigt ökande antalet robotar, chatbots och andra smarta maskiner bland oss, enligt en forskare från Penn State.
I en artikel publicerad i det aktuella numret av Journal of Computer-Mediated Communication, S. Shyam Sundar, James P. Jimirro professor i medieeffekter vid Donald P. Bellisario College of Communications och meddirektör för Media Effects Research Laboratory, har föreslagit ett sätt, eller ram, att studera AI, som kan hjälpa forskare att bättre undersöka hur människor interagerar med artificiell intelligens, eller Human-AI Interaction (HAII).
"Detta är ett försök att systematiskt titta på alla sätt som artificiell intelligens kan påverka användare psykologiskt, särskilt när det gäller förtroende, sade Sundar, som också är ett dotterbolag till Penn State's Institute for Computational and Data Sciences (ICDS). "Förhoppningsvis, den teoretiska modellen som avanceras i detta dokument kommer att ge forskare en ram, samt ett ordförråd, för att studera de socialpsykologiska effekterna av AI."
Ramverket identifierar två vägar – ledtrådar och åtgärder – som AI-utvecklare kan fokusera på för att vinna förtroende och förbättra användarupplevelsen, sa Sundar. Cues är signaler som kan utlösa en rad mentala och känslomässiga svar från människor.
"Körvägen är baserad på ytliga indikatorer på hur AI ser ut eller vad den uppenbarligen gör, " han förklarade.
Sundar tillade att det finns flera ledtrådar som påverkar huruvida användare litar på AI. Ledtrådarna kan vara lika uppenbara som användningen av mänskliga funktioner, som ett mänskligt ansikte som vissa robotar har, eller en människoliknande röst som virtuella assistenter som Siri och Alexa använder.
Andra ledtrådar kan vara mer subtila, till exempel ett uttalande om gränssnittet som förklarar hur enheten fungerar, som när Netflix förklarar varför man rekommenderar en viss film till tittarna.
Men, var och en av dessa signaler kan utlösa distinkta mentala genvägar eller heuristik, enligt Sundar.
"När en AI identifieras för användaren som en maskin snarare än människa, som ofta händer i dagens chatbots, det utlöser maskinheuristiken, "eller en mental genväg som får oss att automatiskt tillämpa alla stereotyper vi har om maskiner, "sa Sundar." Vi kanske tror att maskinerna är exakta och exakta, men vi kanske också tänker på datorer och maskiner som kalla och orubbliga." Dessa stereotyper dikterar i sin tur hur mycket vi litar på AI-systemet.
Sundar föreslog att autopilotsystem i flygplan är ett exempel på hur överförtroende för AI kan leda till negativa konsekvenser. Piloter kan lita så implicit på autopilotsystemet att de slappnar av och inte är beredda på plötsliga förändringar i planets prestanda eller funktionsfel som skulle kräva deras ingripande. Han citerar denna typ av "automationsbias" som en indikation på vårt djupa förtroende för maskinprestanda.
Å andra sidan, AI kan också utlösa negativa fördomar för vissa människor.
"Motsatsen till automatiseringsbias skulle vara algoritmavvikelse, " sa Sundar. "Det finns människor som bara har en aversion för att kanske tidigare, de brändes av en algoritm och litar nu djupt på AI. De blev förmodligen lurade av "deepfakes" som är tillverkade videor skapade med AI-teknik, eller de fick fel produktrekommendation från en e-handelssajt, eller kände att deras integritet invaderades av att AI snokade in i sina tidigare sökningar och köp. "
Sundar rådde utvecklare att vara särskilt uppmärksamma på de ledtrådar de kan erbjuda användarna.
"Om du ger tydliga ledtrådar i gränssnittet, du kan hjälpa till att forma hur användarna svarar, men om du inte ger bra ledtrådar, du kommer att låta användarens tidigare erfarenhet och folkteorier, eller naiva föreställningar, om algoritmer att ta över, sa Sundar.
Förutom att ge ledtrådar, AI:s förmåga att interagera med människor kan också skapa användarupplevelse, enligt Sundar. Han kallar detta "handlingsvägen".
"Handlingsvägen handlar egentligen om samarbete, "sa Sundar." AI borde faktiskt engagera sig och arbeta med oss. De flesta av de nya AI -verktygen - de smarta högtalarna, robotar och chattrobotar – är mycket interaktiva. I detta fall, det är inte bara synliga ledtrådar om hur de ser ut och vad de säger, men om hur de interagerar med dig."
I både handlingar och ledtrådar, Sundar föreslår att utvecklare håller rätt balans. Till exempel, en signal som inte öppet berättar för användaren att AI arbetar på enheten kan utlösa negativa signaler, men om cue ger för mycket detaljer, människor kan försöka korrumpera - eller "spela" - interaktionen med AI. "Att ange rätt mängd transparens på gränssnittet är därför ganska viktigt, " han sa.
"Om din smarta högtalare ställer dig för många frågor, eller interagerar för mycket med dig, det kan vara ett problem, för, "sa Sundar." Folk vill ha samarbete. Men de vill också minimera sina kostnader. Om AI ständigt ställer frågor till dig då är hela poängen med AI, nämligen bekvämlighet, är borta."
Sundar sa att han förväntar sig att ramarna för ledtrådar och åtgärder vägleder forskare när de testar dessa två vägar till AI -förtroende. Detta kommer att generera bevis för att informera hur utvecklare och designers skapar AI-drivna verktyg och teknik för människor.
AI-tekniken utvecklas så snabbt att många kritiker trycker på för att helt och hållet förbjuda vissa applikationer. Sundar sa att ge forskare tid att grundligt undersöka och förstå hur människor interagerar med teknik är ett nödvändigt steg för att hjälpa samhället att utnyttja fördelarna med enheterna, samtidigt som de möjliga negativa konsekvenserna minimeras.
"Vi kommer att göra misstag, " sade Sundar. "Från tryckpressen till internet, ny medieteknik har lett till negativa konsekvenser, men de har också lett till många fler fördelar. Det råder ingen tvekan om att vissa manifestationer av AI kommer att frustrera oss, men någon gång, vi kommer att behöva samexistera med AI och få dem in i våra liv. "