Upphovsman:CC0 Public Domain
Åsikten som påverkar erkännande bör förbjudas från viktiga beslut låter som ett ilsket rop ... men vad betyder det hela? Prat värms upp, faktiskt, om artificiell intelligens påverkan på vårt dagliga liv på sätt som orsakar lika mycket oro som förundran.
"Påverkar erkännande." Inom teknik representerar en delmängd av ansiktsigenkänning. Affektigenkänning handlar om emotionell AI, och det handlar om artificiell intelligens som används för att analysera uttryck i syfte att identifiera mänskliga känslor.
Tolkar uttrycken i ditt ansikte? Hur sunda är dessa tolkningar?
Vid ett forskningscenter vid New York University, en rapport påminner sina läsare om att detta inte är det bästa sättet att förstå hur människor känner. Rapportens uppfattning är att lätt och enkel, känslodetekterande AI bör inte utan vidare antas kunna ringa viktiga situationer som kan ha allvarlig inverkan på människor:vid rekrytering, i övervakning av elever i klassrummet, i kundservice och sist, men knappast minst, inom straffrätten.
Det var nödvändigt att granska varför enheter använder felaktig teknik för att göra bedömningar om karaktär utifrån det fysiska utseendet i första hand. Detta gäller särskilt i sammanhang som anställning, utbildning, och straffrätt.
AI Now Institute vid New York University utfärdade AI Now 2019 -rapport . Institutets fokus ligger på de sociala konsekvenserna av artificiell intelligens. Institutet noterar att AI -system bör ha lämpliga skyddsåtgärder eller ansvarsstrukturer, och institutet låter oroligt när så inte är fallet.
Deras rapport från 2019 tittar på affärsanvändningen av uttrycksanalys som den för närvarande är när det gäller att fatta beslut.
Reuters påpekade att detta var AI Nuus fjärde årsrapport om AI -verktyg. Bedömningen undersöker risker för potentiellt skadlig AI -teknik och dess mänskliga påverkan.
När vi vänder oss till institutets rapport sa att påverkansigenkänning har varit "ett särskilt fokus för växande oro under 2019 - inte bara för att det kan koda fördomar, men eftersom det saknar någon solid vetenskaplig grund för att säkerställa korrekta eller till och med giltiga resultat. "
Rapporten hade en stark formulering:"Tillsynsmyndigheter bör förbjuda användning av påverkansigenkänning i viktiga beslut som påverkar människors liv och tillgång till möjligheter. Tills dess, AI -företag bör sluta använda den. "
Författarna ägnar sig inte bara åt det personliga; åsikt; de granskade forskning.
"Med tanke på de omtvistade vetenskapliga grunderna för teknik för påverkningsigenkänning - en underklass av ansiktsigenkänning som påstår sig upptäcka saker som personlighet, känslor, mental hälsa, och andra inre stater - det bör inte få spela en roll i viktiga beslut om människors liv, som vem som intervjuas eller anställs för ett jobb, priset på försäkring, bedömning av patientens smärta, eller elevprestationer i skolan. "
Rapporten gick ännu längre och sade att regeringar "specifikt bör förbjuda användning av påverkansigenkänning i beslutsprocesser med höga insatser".
Gränsen James Vincent skulle inte bli förvånad över detta fynd. Tillbaka i juli, han rapporterade om forskning som tittade på teknikens brister för att exakt läsa känslor genom ansiktsuttryck; enkelt uttryckt, du kan inte lita på att AI gör det. Han citerade en professor i psykologi vid Northeastern University. "Företag kan säga vad de vill, men uppgifterna är tydliga. "
Vincent rapporterade då om en genomgång av litteraturen på uppdrag av Association for Psychological Science, och fem forskare granskade bevisen:"Emotionella uttryck som omprövas:utmaningar för att dra slutsatser från mänskliga ansiktsrörelser.". Vincent sa "Det tog dem två år att undersöka data, med recensionen som tittar på mer än 1, 000 olika studier. "
Eftersom känslor uttrycks på ett stort antal olika sätt, det är svårt att på ett tillförlitligt sätt utläsa hur någon mår från en enkel uppsättning ansiktsrörelser. Författarna sa att teknikföretag mycket väl kan ställa en fråga som är i grunden fel. Ansträngningar att läsa upp människors inre tillstånd från ansiktsrörelser utan att beakta olika aspekter av sammanhanget var i bästa fall ofullständiga och saknade i värsta fall giltighet.
Medan rapporten krävde ett förbud, det kan vara rättvist att tänka på att oron är mot det naiva förtroendet för en teknik som fortfarande behöver förbättras. Det emotionella analysområdet måste bli bättre.
Enligt Gränsen artikel, en professor i psykologi vid Northeastern University trodde att den kanske viktigaste avhämtningen från recensionen var att "vi måste tänka på känslor på ett mer komplext sätt."
Leo Kelton, BBC Nyheter, under tiden, vidarebefordrade synpunkten för AI Now, grundare av professor Kate Crawford, som sa att studier hade visat stor variation när det gäller antalet känslomässiga tillstånd och hur människor uttryckte dem.
Reuters rapporterade om sitt telefonkonferens inför rapportens släpp:"AI Now grundarna Kate Crawford och Meredith Whittaker sa att skadliga användningsområden för AI multipliceras trots bred enighet om etiska principer eftersom det inte har några konsekvenser för att bryta dem." Den aktuella rapporten sa att AI-aktiverat påverkansigenkänning fortsatte att distribueras i stor skala över miljöer från klassrum till anställningsintervjuer. Det var informerande beslut om vem som är produktiv men ofta utan människors vetskap.
AI Now -rapporten innehåller specifika exempel på företag som gör affärer med känslomässiga produkter. Ett sådant företag säljer videoanalyskameror som klassificerar ansikten som ilska, rädsla, och sorg, säljs till kasinon, restauranger, detaljhandlare, fastighetsmäklare, och besöksnäringen, .
Ett annat exempel var ett företag med AI-drivna videobaserade verktyg för att rekommendera vilka kandidater ett företag ska intervjua. Algoritmerna utformades för att upptäcka känslomässigt engagemang i sökandens mikrouttryck.
Rapporten inkluderade ett företag som skapade pannband som avser att upptäcka och kvantifiera elevernas uppmärksamhetsnivåer genom upptäckt av hjärnaktivitet. (AI -rapporten ignorerade inte för att tillägga att studier "beskriver väsentliga risker i samband med att emotionell AI används i klassrummet.")
© 2019 Science X Network