• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Bygga etiskt anpassad AI

    Kredit:CC0 Public Domain

    Ju fler AI-agenter som används i scenarier med möjligen oväntade situationer, ju mer de behöver vara flexibla, adaptiv, och kreativa när det gäller att uppnå sina mål. Således, en viss nivå av frihet att välja den bästa vägen till ett specifikt mål är nödvändig för att göra AI robust och tillräckligt flexibel för att kunna implementeras framgångsrikt i verkliga scenarier.

    Detta gäller särskilt när AI-system tar itu med svåra problem vars lösning inte kan definieras exakt med ett traditionellt regelbaserat tillvägagångssätt utan kräver att de datadrivna och/eller inlärningsmetoderna används i allt större utsträckning i AI. Verkligen, datadrivna AI-system, som de som använder maskininlärning, är mycket framgångsrika när det gäller noggrannhet och flexibilitet, och de kan vara väldigt "kreativa" för att lösa ett problem, hitta lösningar som positivt kan överraska människor och lära dem innovativa sätt att lösa en utmaning.

    Dock, kreativitet och frihet utan gränser kan ibland leda till oönskade handlingar:AI-systemet kan uppnå sitt mål på sätt som inte anses vara acceptabla enligt värderingar och normer för det drabbade samhället. Således, det finns ett växande behov av att förstå hur man begränsar handlingarna i ett AI-system genom att tillhandahålla gränser inom vilka systemet måste fungera. Detta brukar kallas "värdeanpassningsproblemet", eftersom sådana gränser bör modellera värden och principer som krävs för det specifika AI-applikationsscenariot.

    På IBM Research, vi har studerat och utvärderat två sätt att anpassa AI-system till etiska principer:

    • Den första använder samma formalism för att modellera och kombinera subjektiva preferenser (för att uppnå personalisering av tjänster) och etiska prioriteringar (för att uppnå värdeanpassning). En föreställning om avstånd mellan preferenser och etiska prioriteringar används för att avgöra om åtgärder kan bestämmas bara av preferenserna eller om vi behöver överväga ytterligare etiska prioriteringar, när preferenserna är alltför avvikande från dessa prioriteringar.
    • Den andra använder en förstärkande inlärningsmetod (inom banditproblem) för belöningsmaximering och lär sig de etiska riktlinjerna från positiva och negativa exempel. Vi testade detta tillvägagångssätt på filmrekommendationer med föräldrars ledning, samt val av läkemedelsdos med hänsyn till livskvalitet.

    Dokumentet som beskriver vårt övergripande tillvägagångssätt och de två möjliga sätten att lösa problemet med värdeanpassning kommer att presenteras vid den kommande AAAI 2019-konferensen och kommer att få AAAI 2019 Blue Sky Idea-priset. Den finns här.

    Detta arbete är en del av ett långsiktigt arbete för att förstå hur man kan bygga in etiska principer i AI-system i samarbete med MIT. Medan forskningen som görs i och modellerar etiska prioriteringar som deontologiska begränsningar, IBM-MIT-teamet samlar för närvarande data om mänskliga preferenser för att modellera hur människor följer, och växla mellan, olika etiska teorier (som utilitaristisk, deontologiska, och kontraktsman), för att sedan konstruera både etiska teorier och växlingsmekanismer, lämpligt anpassad, in i AI-system. På det här sättet, sådana system kommer att kunna anpassas bättre till hur människor resonerar och agerar efter etik när de fattar beslut, och kommer därmed att vara bättre rustade för att naturligt och kompakt interagera med människor i en förstärkt intelligens till AI.

    Den här historien återpubliceras med tillstånd av IBM Research. Läs originalberättelsen här.




    © Vetenskap https://sv.scienceaq.com