• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  •  science >> Vetenskap >  >> Andra
    Sexistiska onlineöversättare får lite genuskänslighetsträning

    Kredit:Aleutie/Shutterstock

    Onlineöversättningsverktyg har hjälpt oss att lära oss nya språk, kommunicera över språkliga gränser, och se utländska webbplatser på vårt modersmål. Men den artificiella intelligensen (AI) bakom dem är långt ifrån perfekt, replikerar ofta snarare än förkastar de fördomar som finns inom ett språk eller ett samhälle.

    Sådana verktyg är särskilt sårbara för könsstereotyper, eftersom vissa språk (som engelska) inte tenderar att könsordna substantiv, medan andra (som tyska) gör det. När du översätter från engelska till tyska, översättningsverktyg måste bestämma vilket kön som ska tilldelas engelska ord som "renare". Överväldigande, verktygen överensstämmer med stereotypen, väljer det feminina ordet på tyska.

    Fördomar är mänskliga:de är en del av vem vi är. Men när den lämnas oemotsagd, fördomar kan uppstå i form av konkreta negativa attityder till andra. Nu, vårt team har hittat ett sätt att omskola AI:n bakom översättningsverktyg, använda riktad utbildning för att undvika könsstereotyper. Vår metod skulle kunna användas inom andra områden av AI för att hjälpa tekniken att avvisa, snarare än att replikera, fördomar i samhället.

    Partiska algoritmer

    Till deras skapares bestörtning, AI-algoritmer utvecklar ofta rasistiska eller sexistiska egenskaper. Google Translate har anklagats för stereotyper baserat på kön, som att dess översättningar förutsätter att alla läkare är män och alla sjuksköterskor är kvinnor. Under tiden, AI-språkgeneratorn GPT-3 – som skrev en hel artikel för The Guardian 2020 – visade nyligen att den också var chockerande bra på att producera skadligt innehåll och desinformation.

    Dessa AI-misslyckanden är inte nödvändigtvis deras skapares fel. Akademiker och aktivister uppmärksammade nyligen genusbias i Oxford English Dictionary, där sexistiska synonymer till "kvinna" - som "kärring" eller "piga" - visar hur även en ständigt reviderad, akademiskt redigerade ordkataloger kan innehålla fördomar som förstärker stereotyper och vidmakthåller vardagssexism.

    AI lär sig bias eftersom den inte är byggd i ett vakuum:den lär sig hur man tänker och agerar genom att läsa, analysera och kategorisera befintliga data – som den som finns i Oxford English Dictionary. När det gäller översättnings-AI, vi exponerar dess algoritm för miljarder ord med textdata och ber den att känna igen och lära av mönstren den upptäcker. Vi kallar denna process för maskininlärning, och längs vägen lär man sig mönster av fördomar såväl som för grammatik och syntax.

    Helst textdata vi visar AI kommer inte att innehålla bias. Men det finns en pågående trend inom området mot att bygga större system som tränas på ständigt växande datamängder. Vi pratar hundratals miljarder ord. Dessa erhålls från internet genom att använda odiskriminerande textskrapningsverktyg som Common Crawl och WebText2, som plågar över nätet, slukar upp varje ord de stöter på.

    Själva storleken på de resulterande data gör det omöjligt för någon människa att faktiskt veta vad som finns i den. Men vi vet att en del av det kommer från plattformar som Reddit, som har skapat rubriker för att presentera kränkande, falsk eller konspiratorisk information i användarnas inlägg.

    Nya översättningar

    I vår forskning, vi ville söka efter ett sätt att motverka fördomar inom textdata som skrapats från internet. Våra experiment använde en slumpmässigt utvald del av en befintlig engelsk-tysk korpus (ett urval av text) som ursprungligen innehöll 17,2 miljoner par meningar – hälften på engelska, hälften på tyska.

    Som vi har markerat, Tyska har könsformer för substantiv (läkare kan vara "der Arzt" för manlig, "die Ärztin" för kvinnlig) där vi på engelska inte könsordnar dessa substantivformer (med vissa undantag, sig tvistiga, som "skådespelare" och "skådespelerska").

    Vår analys av dessa data visade tydliga könsspecifika obalanser. Till exempel, fann vi att den maskulina formen av ingenjör på tyska (der Ingenieur) var 75 gånger vanligare än dess feminina motsvarighet (die Ingenieurin). Ett översättningsverktyg som tränas på dessa data kommer oundvikligen att replikera denna fördom, översätta "ingenjör" till det manliga "der Ingenieur." Så vad kan man göra för att undvika eller mildra detta?

    Att övervinna partiskhet

    Ett till synes okomplicerat svar är att "balansera" korpusen innan du ber datorer att lära av den. Kanske, till exempel, Att lägga till fler kvinnliga ingenjörer till korpusen skulle förhindra ett översättningssystem från att anta att alla ingenjörer är män.

    Tyvärr, det finns svårigheter med detta tillvägagångssätt. Översättningsverktyg tränas i flera dagar på miljarder ord. Att omskola dem genom att ändra kön på ord är möjligt, men det är ineffektivt, dyrt och komplicerat. Att justera könet på språk som tyska är särskilt utmanande eftersom, för att göra grammatisk mening, flera ord i en mening kan behöva ändras för att återspegla könsbytet.

    Istället för denna mödosamma ombalansering av könen, vi beslutade att omskola befintliga översättningssystem med riktade lektioner. När vi upptäckte en fördom i befintliga verktyg, vi bestämde oss för att omskola dem till nya, mindre datamängder – lite som en eftermiddag med träning i könskänslighet på jobbet.

    Detta tillvägagångssätt tar en bråkdel av den tid och de resurser som krävs för att träna modeller från grunden. Vi kunde använda bara några hundra utvalda översättningsexempel – istället för miljoner – för att anpassa beteendet hos översättnings-AI på riktade sätt. När man testade könsbundna yrken inom översättning – som vi hade gjort med "ingenjörer" – var noggrannhetsförbättringarna efter anpassning ungefär nio gånger högre än den "balanserade" omskolningsmetoden.

    I vår forskning, vi ville visa att att ta itu med dolda fördomar i enorma datamängder inte behöver betyda mödosamt justering av miljontals träningsexempel, en uppgift som riskerar att avfärdas som omöjlig. Istället, partiskhet från data kan riktas och avläsas – en läxa som andra AI-forskare kan tillämpa på sitt eget arbete.

    Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com