Kredit:CC0 Public Domain
Accenture, ett professionellt tjänsteföretag, kommer snart att lansera ett nytt verktyg som syftar till att hjälpa sina kunder att hitta orättvisa fördomar i AI-algoritmer. När en sådan orättvis fördom upptäcks, representanter för företaget har berättat för pressen, de kan tas bort.
När forskare och ingenjörer fortsätter att förbättra AI-tekniken, fler företag använder AI-baserade verktyg för att göra affärer. Att använda AI-applikationer för att behandla kreditansökningar börjar bli rutin, till exempel. Men det har funnits en oro för att sådana applikationer kan ha inbyggda fördomar, som ger resultat som kan tolkas som orättvist. Sådana applikationer kan, till exempel, har en inbakad ras- eller könsfördom, vilket kan förvränga resultaten. Som svar på sådana påståenden, många stora företag har börjat lägga till bias screeners till sina applikationer. Men som representanter för Accenture har påpekat, mindre företag har sannolikt inte resurserna att göra det. Det nya verktyget de har utvecklat kommer att marknadsföras med dessa företag i åtanke.
En prototyp av det nya verktyget (som vissa har börjat kalla Fairness Tool) testas för närvarande med en okänd partner för kreditriskapplikationer. Företaget har meddelat att de planerar för en mjuk lansering inom en snar framtid. De har också meddelat att verktyget kommer att ingå i ett större program som erbjuds av företaget som heter AI Launchpad. Förutom AI-verktyg, Programmet inkluderar även utbildning i etik och ansvarstagande för anställda.
För att ta reda på vilka typer av data som används av en AI-applikation kan representera bias, verktyget använder statistiska metoder utformade för att jämföra fördefinierade variabler som rättvisa eller orättvisa. Den kommer också att titta på andra variabler som kan innehålla dold bias. Data som inkluderar inkomst, till exempel, kan representera en dold partiskhet mot kvinnor eller minoriteter, även om det inte finns några uppgifter som anger kön eller ras. Verktyget kan också användas för att implementera ändringar i en kunds algoritm, förhoppningsvis gör det mindre partiskt. Men representanter för Accenture noterar att det har visat sig göra att vissa algoritmer blir mindre exakta totalt sett.
© 2018 Tech Xplore