Upphovsman:CC0 Public Domain
Forskare från University of Warwick, Imperial College London, EPFL (Lausanne) och Sciteb Ltd har hittat ett matematiskt sätt att hjälpa tillsynsmyndigheter och företag att hantera och övervaka artificiell intelligens-systems fördomar mot att göra oetiska, och potentiellt mycket kostsamma och skadliga kommersiella val – ett etiskt öga på AI.
Artificiell intelligens (AI) används alltmer i kommersiella situationer. Överväg till exempel att använda AI för att sätta priser på försäkringsprodukter som ska säljas till en viss kund. Det finns legitima skäl för att sätta olika priser för olika personer, men det kan också vara lönsamt att "spela" sin psykologi eller vilja att shoppa runt.
AI har ett stort antal potentiella strategier att välja mellan, men vissa är oetiska och kommer inte bara att ådra sig moraliska kostnader utan en betydande potentiell ekonomisk påföljd eftersom intressenter kommer att tillämpa vissa straff om de upptäcker att en sådan strategi har använts – tillsynsmyndigheter kan ta ut betydande böter på miljarder dollar, Pund eller euro och kunder kan bojkotta dig – eller båda.
Så i en miljö där beslut i allt större utsträckning fattas utan mänsklig inblandning, Det finns därför ett mycket starkt incitament att veta under vilka omständigheter AI-system kan anta en oetisk strategi och minska den risken eller eliminera helt om möjligt.
Matematiker och statistiker från University of Warwick, Kejserlig, EPFL och Sciteb Ltd har gått samman för att hjälpa företag och tillsynsmyndigheter att skapa en ny "oetisk optimeringsprincip" och tillhandahålla en enkel formel för att uppskatta dess effekt. De har lagt ut alla detaljer i ett papper som bär namnet "En oetisk optimeringsprincip", publicerad i Royal Society Open Science onsdagen den 1 juli 2020.
De fyra författarna till uppsatsen är Nicholas Beale från Sciteb Ltd; Heather Battey vid Institutionen för matematik, Imperial College London; Anthony C. Davison från Institute of Mathematics, Ecole Polytechnique Fédérale de Lausanne; och professor Robert MacKay från Mathematics Institute vid University of Warwick.
Professor Robert MacKay vid Mathematics Institute vid University of Warwick sa:
"Vår föreslagna 'oetiska optimeringsprincip' kan användas för att hjälpa tillsynsmyndigheter, efterlevnadspersonal och andra för att hitta problematiska strategier som kan vara dolda i ett stort strategiutrymme. Optimering kan förväntas välja oproportionerligt många oetiska strategier, inspektion av vilka bör visa var problem sannolikt kommer att uppstå och därmed föreslå hur AI-sökningsalgoritmen bör modifieras för att undvika dem i framtiden.
"Principen antyder också att det kan bli nödvändigt att ompröva hur AI fungerar i mycket stora strategiområden, så att oetiska resultat uttryckligen förkastas i optimering/inlärningsprocessen."