Kredit:CC0 Public Domain
Ju fler AI-agenter som används i scenarier med möjligen oväntade situationer, ju mer de behöver vara flexibla, adaptiv, och kreativa när det gäller att uppnå sina mål. Således, en viss nivå av frihet att välja den bästa vägen till ett specifikt mål är nödvändig för att göra AI robust och tillräckligt flexibel för att kunna implementeras framgångsrikt i verkliga scenarier.
Detta gäller särskilt när AI-system tar itu med svåra problem vars lösning inte kan definieras exakt med ett traditionellt regelbaserat tillvägagångssätt utan kräver att de datadrivna och/eller inlärningsmetoderna används i allt större utsträckning i AI. Verkligen, datadrivna AI-system, som de som använder maskininlärning, är mycket framgångsrika när det gäller noggrannhet och flexibilitet, och de kan vara väldigt "kreativa" för att lösa ett problem, hitta lösningar som positivt kan överraska människor och lära dem innovativa sätt att lösa en utmaning.
Dock, kreativitet och frihet utan gränser kan ibland leda till oönskade handlingar:AI-systemet kan uppnå sitt mål på sätt som inte anses vara acceptabla enligt värderingar och normer för det drabbade samhället. Således, det finns ett växande behov av att förstå hur man begränsar handlingarna i ett AI-system genom att tillhandahålla gränser inom vilka systemet måste fungera. Detta brukar kallas "värdeanpassningsproblemet", eftersom sådana gränser bör modellera värden och principer som krävs för det specifika AI-applikationsscenariot.
På IBM Research, vi har studerat och utvärderat två sätt att anpassa AI-system till etiska principer:
Dokumentet som beskriver vårt övergripande tillvägagångssätt och de två möjliga sätten att lösa problemet med värdeanpassning kommer att presenteras vid den kommande AAAI 2019-konferensen och kommer att få AAAI 2019 Blue Sky Idea-priset. Den finns här.
Detta arbete är en del av ett långsiktigt arbete för att förstå hur man kan bygga in etiska principer i AI-system i samarbete med MIT. Medan forskningen som görs i och modellerar etiska prioriteringar som deontologiska begränsningar, IBM-MIT-teamet samlar för närvarande data om mänskliga preferenser för att modellera hur människor följer, och växla mellan, olika etiska teorier (som utilitaristisk, deontologiska, och kontraktsman), för att sedan konstruera både etiska teorier och växlingsmekanismer, lämpligt anpassad, in i AI-system. På det här sättet, sådana system kommer att kunna anpassas bättre till hur människor resonerar och agerar efter etik när de fattar beslut, och kommer därmed att vara bättre rustade för att naturligt och kompakt interagera med människor i en förstärkt intelligens till AI.
Den här historien återpubliceras med tillstånd av IBM Research. Läs originalberättelsen här.