• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • AI-forskare förbättrar metoden för att ta bort könsbias i maskiner som är byggda för att förstå och svara på text- eller röstdata

    Kredit:Pixabay/CC0 Public Domain

    Forskare har hittat ett bättre sätt att minska könsfördomar i naturliga språkbearbetningsmodeller samtidigt som vi bevarar viktig information om ordens betydelser, enligt en nyligen genomförd studie som kan vara ett viktigt steg mot att ta itu med frågan om mänskliga fördomar som kryper in i artificiell intelligens.

    Medan en dator i sig är en opartisk maskin, genereras mycket av data och programmering som flödar genom datorer av människor. Detta kan vara ett problem när medvetna eller omedvetna mänskliga fördomar återspeglas i textexemplen som AI-modeller använder för att analysera och "förstå" språk.

    Datorer kan inte omedelbart förstå text, förklarar Lei Ding, första författare på studien och doktorand vid institutionen för matematiska och statistiska vetenskaper. De behöver ord som konverteras till en uppsättning siffror för att förstå dem – en process som kallas ordinbäddning.

    "Naturlig språkbehandling är i grunden att lära datorerna att förstå texter och språk", säger Bei Jiang, docent vid institutionen för matematiska och statistiska vetenskaper.

    När forskarna väl har tagit det här steget kan de rita ord som siffror på en 2D-graf och visualisera ordens relationer till varandra. Detta gör det möjligt för dem att bättre förstå omfattningen av könsfördomen och senare avgöra om partiskheten effektivt eliminerades.

    All betydelse, ingen av fördomen

    Även om andra försök att minska eller ta bort könsfördomar i texter har varit framgångsrika till viss del, är problemet med dessa tillvägagångssätt att könsbias inte är det enda som tas bort från texterna.

    "I många könsnedbrytande metoder, när de minskar fördomen i en ordvektor, minskar eller eliminerar de också viktig information om ordet", förklarar Jiang. Denna typ av information är känd som semantisk information, och den erbjuder viktig kontextuell data som kan behövas i framtida uppgifter som involverar dessa ordinbäddningar.

    Till exempel, när de överväger ett ord som "sköterska", vill forskare att systemet ska ta bort all könsinformation som är kopplad till den termen samtidigt som den behåller information som länkar den till relaterade ord som läkare, sjukhus och medicin.

    "Vi måste bevara den semantiska informationen", säger Ding. "Utan det skulle inbäddningarna ha mycket dåliga prestanda [i uppgifter och system för bearbetning av naturligt språk]."

    Snabbt, korrekt – och rättvist

    Den nya metoden överträffade också ledande nedsättande metoder i olika uppgifter som utvärderades baserat på ordinbäddning.

    När den blir förfinad kan metodiken erbjuda ett flexibelt ramverk som andra forskare kan tillämpa på sina egna ordinbäddningar. Så länge en forskare har vägledning om rätt grupp av ord att använda, kan metoden användas för att minska fördomar kopplade till en viss grupp.

    Även om metodiken i detta skede fortfarande kräver forskarinput, förklarar Ding att det i framtiden kan vara möjligt att ha något slags inbyggt system eller filter som automatiskt kan ta bort könsfördomar i en mängd olika sammanhang.

    Publicerad i Proceedings of the AAAI Conference on Artificial Intelligence , är den nya metoden en del av ett större projekt, med titeln BIAS:Responsible AI for Gender and Ethnic Labour Market Equality, som är ute efter att lösa verkliga problem.

    Till exempel kan personer som läser samma platsannons reagera olika på särskilda ord i beskrivningen som ofta har en könsassociation. Ett system som använder metoden som Ding och hans medarbetare skapade skulle kunna flagga de ord som kan ändra en potentiell sökandes uppfattning om jobbet eller beslut att ansöka på grund av upplevd könsfördom, och föreslå alternativa ord för att minska denna partiskhet.

    Även om många AI-modeller och system är fokuserade på att hitta sätt att utföra uppgifter med större hastighet och noggrannhet, konstaterar Ding att teamets arbete är en del av ett växande område som försöker göra framsteg när det gäller en annan viktig aspekt av dessa modeller och system.

    "Människor fokuserar mer på ansvar och rättvisa inom artificiell intelligens." + Utforska vidare

    Google flyttar för att minska könsfördomar i översättning




    © Vetenskap https://sv.scienceaq.com