• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Artificiell intelligens har ett könsfördomsproblem – fråga bara Siri

    Sexistiska stereotyper utspelar sig i världen av artificiell intelligens. Kredit:yavi/Shutterstock

    Föreslå för Samsungs virtuella personliga assistent Bixby "Let's talk dirty", och den kvinnliga rösten kommer att svara med en honung accent:"Jag vill inte hamna på tomtens stygga lista."

    Ställ samma fråga till programmets mansröst och den svarar "Jag har läst att jorderosion är ett riktigt smutsproblem."

    I Sydafrika, där jag bor och bedriver min forskning om könsfördomar inom artificiell intelligens, Samsung erbjuder nu Bixby i olika röster beroende på vilket språk du väljer. För amerikansk engelska, där är Julia, Stephanie, Lisa och John. Julias röster, Lisa och Stephanie är kokette och ivriga. John är smart och rak.

    Virtuella personliga assistenter – som Bixby, Alexa (Amazon), Siri (Apple) och Cortana (Microsoft) – ligger i framkanten av säljbar artificiell intelligens (AI). AI hänvisar till att använda tekniska system för att utföra uppgifter som människor vanligtvis skulle göra.

    De fungerar som en applikation på en smart enhet, svara på röstkommandon genom naturlig språkbehandling. Deras spridning över hela världen ökar snabbt. En färsk rapport från UNESCO uppskattade att vi redan nästa år kommer att ha fler samtal med våra virtuella personliga assistenter än med våra makar.

    Än, som jag har utforskat i min egen forskning med Dr. Nora Ni Loideain från Information Law and Policy Centre vid University of London, dessa tekniker förråder kritiska könsfördomar.

    Med sina kvinnliga namn, röster och programmerad flörtighet, utformningen av virtuella personliga assistenter återger diskriminerande stereotyper av kvinnliga sekreterare som, enligt könsstereotypen, är ofta mer än bara en sekreterare till sin manliga chef.

    Det förstärker också kvinnors roll som sekundär och undergiven män. Dessa AI-assistenter arbetar på kommando av sin användare. De har ingen rätt att vägra dessa kommandon. De är bara programmerade att lyda. Det kan argumenteras att, de väcker också förväntningar på hur riktiga kvinnor borde bete sig.

    Syftet med dessa assistenter är att också befria sin användare från snålt arbete som att boka tider och köpa saker online. Detta är problematiskt på åtminstone två fronter:det tyder på att användaren har mer tid för påstått viktigare arbete. För det andra, den gör ett kritiskt uttalande om värdet av den typ av sekreterararbete som utförs, först av riktiga kvinnor och nu av digitaliserade kvinnor, i den digitala framtiden.

    "Vad har du på dig?"

    Ett av de mer uppenbara sätten på vilka dessa fördomar är uppenbara är användningen av kvinnonamn:Siri och Cortana, till exempel. Siri är ett nordiskt namn som betyder "den vackra kvinnan som leder dig till seger".

    Cortana har fått sitt namn (liksom bilder och röst) från spelserien Halo. I Halo, Cortana skapades från en klon av hjärnan hos en framgångsrik kvinnlig vetenskapsman gift med en transparent och mycket sexualiserad kvinnlig kropp. Hon fungerar som en fiktiv medhjälpare för spelare med sin anspråkslösa intelligens och fascinerande form.

    Förutom deras kvinnliga röster, alla virtuella personliga assistenter på marknaden idag kommer med en standard kvinnlig röst, som, som Bixby, är programmerad att svara på alla typer av suggestiva frågor och kommentarer. Dessa frågor inkluderar:"Vad har du på dig?" Siris svar är "Varför skulle jag ha på mig något?"

    Alexa, under tiden, skämt:"De gör inga kläder åt mig"; och Cortana svarar, "Bara en liten sak jag tog upp inom tekniken."

    Bias och diskriminering i AI

    Det blir alltmer erkänt att AI-system ofta är partiska, särskilt efter ras och kön. Till exempel, Amazons nyligen utvecklade rekryteringsalgoritm för att sortera CV för jobbansökningar visade på könsfördomar genom att nedgradera CV som innehöll ordet "kvinnor" eller som innehöll referenser till kvinnliga högskolor. Eftersom algoritmen tränades på historiska data och den förmånliga rekryteringen av män, det gick till slut inte att fixas och måste släppas.

    Som forskning har visat, det finns en kritisk koppling mellan utvecklingen av AI-system som visar könsfördomar och bristen på kvinnor i team som designar dem.

    Men det finns något mindre erkännande av sätten på vilka AI-produkter införlivar stereotypa representationer av kön i själva designen. För AI nu, en ledande forskningsinstitution som undersöker de sociala effekterna av AI, det finns ett tydligt samband mellan den mansdominerade AI-industrin och de diskriminerande system och produkter den producerar.

    Forskarnas roll är att synliggöra dessa kopplingar och visa på de kritiska kopplingarna mellan representationerna av kvinnor, oavsett om det gäller kulturella eller tekniska produkter, och behandlingen av kvinnor i den verkliga världen.

    AI är den ledande tekniken i den så kallade fjärde industriella revolutionen. Det hänvisar till de tekniska framstegen – från bioteknik, till AI och big data – som snabbt omformar världen som vi känner den. När Sydafrika fortsätter att engagera sig i löften och fallgroparna i vad detta innebär, det kommer att bli allt viktigare att överväga och ta itu med hur tekniken som driver dessa förändringar kan påverka kvinnor.

    Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com