Upphovsman:CC0 Public Domain
OK vi förstår. Ge-whiz-känslan av artificiell intelligens som visas i dess utvecklingsmässiga ära är med oss och vi åker villigt på vågen.
En nykter fas är dock definitivt i vingarna. Nu när vi har AI, vad gör vi med det, och hanterar vi, även bedöma, det bra?
"Som videospelare som letar efter nästa hack, anställda kommer att behöva övervaka, förstå, ifrågasätta och utnyttja sårbarheten hos deras verktyg och redogöra för dem, "sa John Sumser, huvudanalytiker på HR -examinator .
"Digitala medarbetare är centrala för vår framtid, men att hantera dem är väldigt annorlunda än att hantera människor eller äldre programvara. "Citat i Personalchef :"... förstår att vi är i början av att bygga och använda intelligenta verktyg, det är mycket arbete framöver och vi måste tänka på våra maskiner annorlunda från och med nu. "
AI -supportrarna för beslut som används av regeringar och stora organisationer, trots allt, påverkar våra liv.
Den stora frågan är, vem och vad utbildar AI för att fatta beslut? Finns det en inskränkning i träningsfasen? Om så är fallet, hur kan man vara säker på att resultatet är det rättvisaste beslutet?
Lång och kort, IBM -forskare har haft fullt upp med att ta fram sätt att minska partiskhet i datamängderna som används för att träna AI. Vad håller de på med? Ska vi bara titta på ännu ett vitt papper? De gör mer än så.
De levererar ett betygssystem som kan rangordna den relativa rättvisan i ett AI -system.
Rättvisa är inte bara något som fångade IBM:s uppmärksamhet. Zoe Kleinman, teknikreporter, BBC Nyheter, skrev, "Det finns en ökande oro för att algoritmer som används av både teknikjättar och andra företag inte alltid är rättvisa i sitt beslutsfattande."
IBM:s arsenal av tekniska verktyg för artificiell intelligens innehåller nu ett sätt att irritera omedveten partiskhet i att fatta beslut. Bias kommer inte alltid klädd i neonljus och magiska marköretiketter. Halva tiden undersöker vi till och med vår egen förmåga att bedöma, känner mig orolig för den andra hälften av oss som misstänker att beslutet var riggat med partiskhet. Gör inga misstag, fastän, våra sniffare har ofta rätt.
"Hur många anlag som helst kan bakas in i en algoritm, gömd i en datamängd eller på något sätt tänkt under ett projekts genomförande, "sa Jack Murtha på onsdagen Healthcare Analytics News .
IBM gör veckans AI-relaterade nyheter.
IBM har meddelat en mjukvarutjänst som körs på IBM Cloud som kan upptäcka fördomar och förklarar hur AI fattar beslut - när besluten fattas, Sa Murtha.
"Vi ger ny insyn och kontroll till de företag som använder AI och står inför den mest potentiella risken från brister i beslutsfattandet, "chefen för Watson AI på IBM, Beth Smith, uppgav.
"Kunderna kommer att kunna se, via en visuell instrumentpanel, hur deras algoritmer fattar beslut och vilka faktorer som används för att göra de slutliga rekommendationerna, sa Kleinman.
IBMs molnbaserade programvara kommer att vara öppen källkod, och kommer att arbeta med några vanliga ramar för att bygga algoritmer. Så vad kommer det att göra egentligen?
Murtha utredde det. (1) Den pingar "orättvisa resultat" i realtid och (2) rekommenderar data som kan mildra fördomar. (3) IBM erbjuder också konsulttjänster för att skrubba beslutsfattande via starkare affärsprocesser och mänskliga AI-gränssnitt.
IBM:s nya bidrag kan lägga till ännu ett lager för att förstå och hantera partiskhet.
Orättvisa kan återspeglas i brist på mångfald som går in i mängder data som algoritmer tränas på.
En CNBC -rapport noterade att "sammansättningen av teknikindustrin som skapar dessa algoritmer inte var perfekt." Silicon Valley har en lång historia av att bli kritiserad för sin brist på mångfald. "
Kay Firth-Butterfield, chef för AI och maskininlärning vid World Economic Forum, citerades av CNBC.
"När vi pratar om partiskhet, vi oroar oss först och främst om fokus för de människor som skapar algoritmerna, "Firth-Butterfield sa." Vi måste göra industrin mycket mer mångsidig i väst. "
En doktorand vid Massachusetts Institute of Technology 2016 hade funnit att "ansiktsigenkänning bara såg hennes ansikte om hon hade en vit mask, sa Kleinman.
Vad kommer härnäst? "IBM Services kommer att arbeta med företag för att hjälpa dem att använda den nya tjänsten. IBM Research kommer att släppa en verktygslåda till öppen källkod, "sa Söker Alpha . ZDNet hade mer information att dela om den här verktygssatsen. IBM kommer att öppna "bias detection tools" från IBM Research via en "AI Fairness 360 -verktygslåda". Förvänta dig att se ett bibliotek med algoritmer, kod och självstudier.
ZDNet Larry Dignan:"Förhoppningen är att akademiker, forskare och datavetenskapare kommer att integrera biasdetektering i sina modeller. "
De som vill fördjupa sig mer i en sådan verktygslåda kan kolla in IBMs verktyg på Github.
© 2018 Tech Xplore