• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • AI skulle kunna vara en kraft för det goda – men var för närvarande på väg mot en mörkare framtid

    Kredit:CC0 Public Domain

    Artificiell intelligens (AI) håller redan på att omkonfigurera världen på iögonfallande sätt. Data driver vårt globala digitala ekosystem, och AI-teknik avslöjar mönster i data. Smartphones, smarta hem, och smarta städer påverkar hur vi lever och interagerar, och AI-system blir allt mer involverade i rekryteringsbeslut, medicinska diagnoser, och rättsliga domar. Om detta scenario är utopiskt eller dystopiskt beror på ditt perspektiv.

    De potentiella riskerna med AI räknas upp upprepade gånger. Mördarrobotar och massarbetslöshet är vanliga bekymmer, medan vissa människor till och med fruktar mänsklig utrotning. Mer optimistiska förutsägelser hävdar att AI kommer att tillföra 15 biljoner USD till världsekonomin år 2030, och så småningom leda oss till något slags socialt nirvana.

    Vi måste verkligen överväga vilken inverkan sådan teknik har på våra samhällen. En viktig oro är att AI-system förstärker befintliga sociala fördomar – till skadlig effekt. Flera ökända exempel på detta fenomen har fått stor uppmärksamhet:toppmoderna automatiserade maskinöversättningssystem som producerar sexistiska resultat, och bildigenkänningssystem som klassificerar svarta människor som gorillor.

    Dessa problem uppstår eftersom sådana system använder matematiska modeller (som neurala nätverk) för att identifiera mönster i stora uppsättningar träningsdata. Om den informationen är illa sned på olika sätt, då kommer dess inneboende fördomar oundvikligen att läras in och reproduceras av de tränade systemen. Partiska autonoma teknologier är problematiska eftersom de potentiellt kan marginalisera grupper som kvinnor, etniska minoriteter, eller äldre, vilket förvärrar befintliga sociala obalanser.

    Om AI-system tränas på polisens arresteringsdata, till exempel, då skulle alla medvetna eller omedvetna fördomar som uppenbarar sig i de existerande mönstren av arresteringar replikeras av ett "förutsägande polisiärt" AI-system som tränats på dessa data. Inser de allvarliga konsekvenserna av detta, olika auktoritativa organisationer har nyligen meddelat att alla AI-system bör tränas på opartisk data. Etiska riktlinjer som publicerades tidigare under 2019 av Europeiska kommissionen gav följande rekommendation:

    När data samlas in, det kan innehålla socialt konstruerade fördomar, felaktigheter, fel och misstag. Detta måste åtgärdas före träning med en given datamängd.

    Att hantera partisk data

    Allt detta låter vettigt nog. Men tyvärr, Det är ibland helt enkelt omöjligt att säkerställa att vissa datamängder är opartiska innan träning. Ett konkret exempel borde klargöra detta.

    Alla toppmoderna maskinöversättningssystem (som Google Translate) är tränade på meningspar. Ett engelsk-franskt system använder data som associerar engelska meningar ("hon är lång") med motsvarande franska meningar (" elle est grande "). Det kan finnas 500 m sådana parningar i en given uppsättning träningsdata, och därför en miljard separata meningar totalt. Alla könsrelaterade fördomar skulle behöva tas bort från en datamängd av detta slag om vi ville förhindra att det resulterande systemet producerar sexistiska utdata som följande:

    • Inmatning :Kvinnorna startade mötet. De arbetade effektivt.
    • Produktion : Les femmes ont commencé la réunion. Ils ont travaillé efficacement.

    Den franska översättningen skapades med Google Translate den 11 oktober 2019, och det är felaktigt:" Ils " är det maskulina pluralsubjektspronomenet på franska, och det visas här trots att sammanhanget tydligt indikerar att kvinnor hänvisas till. Detta är ett klassiskt exempel på att den maskulina standarden föredras av det automatiserade systemet på grund av fördomar i träningsdata.

    I allmänhet, 70 % av de könsbundna pronomenen i översättningsdatauppsättningar är maskulina, medan 30% är feminina. Detta beror på att de texter som används för sådana ändamål tenderar att hänvisa till män mer än kvinnor. För att förhindra att översättningssystem replikerar dessa befintliga fördomar, specifika meningspar skulle behöva tas bort från data, så att maskulina och feminina pronomen förekom 50%/50% på både den engelska och franska sidan. Detta skulle förhindra att systemet tilldelar maskulina pronomen högre sannolikheter.

    Substantiv och adjektiv skulle behöva balanseras 50%/50% också, självklart, eftersom dessa kan indikera kön på båda språken ("skådespelare", "skådespelerska"; "neuf", "neuve") – och så vidare. Men denna drastiska nedsampling skulle nödvändigtvis minska den tillgängliga träningsdatan avsevärt, vilket försämrar kvaliteten på de översättningar som produceras.

    Och även om den resulterande datamängden var helt könsbalanserad, den skulle fortfarande vara sned på alla möjliga andra sätt (som etnicitet eller ålder). I sanning, det skulle vara svårt att ta bort alla dessa fördomar helt och hållet . Om en person bara ägnade fem sekunder åt att läsa var och en av de en miljard meningarna i träningsdatan, det skulle ta 159 år att kontrollera dem alla – och det är förutsatt att man är beredd att arbeta hela dagen och natten, utan lunchrast.

    Ett alternativ?

    Så det är orealistiskt att kräva att alla träningsdatauppsättningar är opartiska innan AI-system byggs. Sådana krav på hög nivå förutsätter vanligtvis att "AI" betecknar ett homogent kluster av matematiska modeller och algoritmiska tillvägagångssätt.

    I verkligheten, olika AI-uppgifter kräver väldigt olika typer av system. Och att tona ner hela omfattningen av denna mångfald döljer de verkliga problemen som (säg) utgörs av djupt skeva träningsdata. Detta är beklagligt, eftersom det innebär att andra lösningar på databiasproblemet försummas.

    Till exempel, fördomarna i ett utbildat maskinöversättningssystem kan reduceras avsevärt om systemet anpassas efter att det har tränats på det större, oundvikligen partisk, datauppsättning. Detta kan göras med en mycket mindre, mindre sned, datauppsättning. Majoriteten av uppgifterna kan vara starkt partiska, därför, men systemet som tränats på det behöver inte vara det. Tyvärr, dessa tekniker diskuteras sällan av dem som har till uppgift att utveckla riktlinjer och rättsliga ramar för AI-forskning.

    Om AI-system helt enkelt förstärker befintliga sociala obalanser, då hindrar de snarare än underlättar positiv social förändring. Om de AI-tekniker vi använder allt mer dagligen var mycket mindre partiska än vi är, då kunde de hjälpa oss att känna igen och konfrontera våra egna lurande fördomar.

    Det är så klart vad vi bör arbeta mot. Och så AI-utvecklare måste tänka mycket noggrannare på de sociala konsekvenserna av de system de bygger, medan de som skriver om AI behöver förstå mer i detalj hur AI-system faktiskt är designade och byggda. För om vi verkligen närmar oss antingen en teknisk idyll eller apokalyps, det förra vore att föredra.

    Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com