• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Artificiell intelligens måste veta när man ska be om mänsklig hjälp

    Ibland blir frågorna för mycket för artificiella intelligenssystem. Kredit:sdecoret/Shutterstock.com

    Artificiell intelligens är kraftfulla verktyg för företag och regeringar att bearbeta data och svara på förändrade situationer, oavsett om det är på börsen eller på ett slagfält. Men det finns fortfarande vissa saker som AI inte är redo för.

    Vi är forskare inom datavetenskap och arbetar för att förstå och förbättra sätten på vilka algoritmer interagerar med samhället. AI-system presterar bäst när målet är tydligt och det finns data av hög kvalitet, som när de uppmanas att skilja på olika ansikten efter att ha lärt sig av många bilder på korrekt identifierade personer.

    Ibland går AI-system så bra att användare och observatörer blir förvånade över hur insiktsfull tekniken är. Dock, ibland är framgång svår att mäta eller definieras felaktigt, eller så stämmer inte träningsdatan med den aktuella uppgiften. I dessa fall, AI-algoritmer tenderar att misslyckas på oförutsägbara och spektakulära sätt, även om det inte alltid är direkt uppenbart att något ens har gått fel. Som ett resultat, det är viktigt att vara försiktig med hypen och spänningen om vad AI kan göra, och inte anta att lösningen den hittar alltid är korrekt.

    När algoritmer fungerar, det bör finnas ett mänskligt skyddsnät för att förhindra att människor skadas. Vår forskning visade att i vissa situationer kan algoritmer känna igen problem i hur de fungerar, och be om mänsklig hjälp. Specifikt, vi visar, att be om mänsklig hjälp kan hjälpa till att lindra algoritmiska fördomar i vissa sammanhang.

    Hur säker är algoritmen?

    Artificiell intelligens används vid straffrättsliga straff, ansiktsbaserad personlighetsprofilering, återuppta screening, sjukvårdsinskrivning och andra svåra uppgifter där människors liv och välbefinnande står på spel. Amerikanska myndigheter börjar öka sin utforskning och användning av AI-system, som svar på en nyligen genomförd order från president Donald Trump.

    Det är viktigt att komma ihåg, fastän, att AI kan cementera missuppfattningar i hur en uppgift hanteras, eller förstora befintliga ojämlikheter. Detta kan hända även när ingen uttryckligen sagt till algoritmen att behandla någon annorlunda.

    Till exempel, många företag har algoritmer som försöker bestämma egenskaper om en person genom deras ansikte – säg för att gissa deras kön. Systemen som utvecklats av amerikanska företag tenderar att klara sig betydligt bättre på att kategorisera vita män än de gör kvinnor och mörkhyade människor; de klarar sig sämst på mörkhyade kvinnor. System utvecklade i Kina, dock, tenderar att göra sämre på vita ansikten.

    Skillnaden beror inte på att en grupp har ansikten som är lättare att klassificera än andra. Snarare, Båda algoritmerna är vanligtvis tränade på en stor samling data som inte är lika olika som den totala mänskliga befolkningen. Om datamängden domineras av en viss typ av ansikte – vita män i USA, och kinesiska ansikten i Kina – då kommer algoritmen förmodligen att bli bättre på att analysera dessa ansikten än andra.

    Partisk träningsdata kan göra systemen bättre, eller värre, att känna igen vissa typer av ansikten. Kredit:Andrey_Popov/Shutterstock.com

    Oavsett hur skillnaden uppstår, resultatet är att algoritmer kan vara partiska genom att vara mer exakta på en grupp än på en annan.

    Att hålla ett mänskligt öga på AI

    För situationer med hög insats, Algoritmens förtroende för sitt eget resultat – dess uppskattning av hur troligt det är att systemet kom fram till rätt svar – är lika viktig som själva resultatet. De personer som får utdata från algoritmer måste veta hur seriöst de ska ta resultaten, snarare än att anta att det är korrekt eftersom det involverade en dator.

    Först nyligen har forskare börjat utveckla sätt att identifiera, mycket mindre försök att fixa, ojämlikheter i algoritmer och data. Algoritmer kan programmeras för att känna igen sina egna brister – och följa det erkännandet med en begäran om att en person ska hjälpa till med uppgiften.

    Många typer av AI-algoritmer beräknar redan en intern konfidensnivå – en förutsägelse av hur bra den klarade sig i att analysera en viss indata. I ansiktsanalys, många AI-algoritmer har lägre tilltro till mörkare ansikten och kvinnliga ansikten än för vita manliga ansikten. Det är oklart hur mycket detta har tagits i beaktande av brottsbekämpande myndigheter för användning av dessa algoritmer med hög insats.

    Målet är att AI själv ska lokalisera de områden där den inte når samma noggrannhet för olika grupper. På dessa ingångar, AI:n kan skjuta upp sitt beslut till en mänsklig moderator. Denna teknik är särskilt väl lämpad för sammanhangstunga uppgifter som innehållsmoderering.

    Mänskliga innehållsmoderatorer kan inte hänga med i floden av bilder som publiceras på sociala medier. Men moderering av AI-innehåll är känt för att inte ta hänsyn till sammanhanget bakom ett inlägg – felidentifiera diskussioner om sexuell läggning som explicit innehåll, eller identifiera självständighetsförklaringen som hatretorik. Detta kan sluta med att en demografisk eller politisk grupp censureras på ett felaktigt sätt framför en annan.

    För att få det bästa av två världar, vår forskning tyder på att poängsätta allt innehåll på ett automatiserat sätt, använder samma AI-metoder som redan är vanliga idag. Sedan använder vårt tillvägagångssätt nyföreslagna tekniker för att automatiskt lokalisera potentiella ojämlikheter i algoritmens noggrannhet på olika skyddade grupper av människor, och att lämna över besluten om vissa individer till en människa. Som ett resultat, Algoritmen kan vara helt opartisk om de personer som den faktiskt bestämmer. Och människor bestämmer över de individer där algoritmiska beslut oundvikligen skulle ha skapat fördomar.

    Detta tillvägagångssätt eliminerar inte partiskhet:Det "koncentrerar" bara potentialen för partiskhet på en mindre uppsättning beslut, som sedan hanteras av människor, använda mänskligt sunt förnuft. AI:n kan fortfarande utföra huvuddelen av beslutsfattandet.

    Detta är en demonstration av en situation där en AI-algoritm som arbetar tillsammans med en människa kan skörda fördelarna och effektiviteten av AI:s goda beslut, utan att låsas in i dess dåliga. Människor kommer då att ha mer tid att arbeta med det luddiga, svåra beslut som är avgörande för att säkerställa rättvisa och rättvisa.

    Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com