• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Problemet med självkörande vagn:Hur kommer framtida AI-system att göra de mest etiska valen för oss alla?

    Kredit:Shutterstock

    Artificiell intelligens (AI) fattar redan beslut inom områdena affärer, hälsovård och tillverkning. Men AI-algoritmer får i allmänhet fortfarande hjälp av personer som tillämpar kontroller och gör det sista samtalet.

    Vad skulle hända om AI-system måste fatta oberoende beslut, och sådana som kan betyda liv eller död för människor?

    Popkulturen har länge skildrat vår allmänna misstro mot AI. I 2004 års sci-fi-film "I, Robot" är detektiven Del Spooner (spelad av Will Smith) misstänksam mot robotar efter att ha räddats av en från en bilolycka, medan en 12-årig flicka lämnades att drunkna. Han säger:"Jag var det logiska valet. Det beräknade att jag hade 45 % chans att överleva. Sarah hade bara 11 % chans. Det var någons bebis - 11 % är mer än tillräckligt. En människa skulle ha vetat det ."

    Till skillnad från människor saknar robotar moraliskt samvete och följer den "etik" som är programmerad i dem. Samtidigt är den mänskliga moralen mycket varierande. Det "rätta" att göra i alla situationer beror på vem du frågar.

    För att maskiner ska hjälpa oss till sin fulla potential måste vi se till att de beter sig etiskt. Så frågan blir:hur påverkar etiken hos AI-utvecklare och ingenjörer de beslut som AI tar?

    Den självkörande framtiden

    Föreställ dig en framtid med självkörande bilar som är helt autonoma. Om allt fungerar som det är tänkt blir morgonpendlingen ett tillfälle att förbereda sig inför dagens möten, ta reda på nyheter eller luta dig tillbaka och koppla av.

    Men vad händer om det går fel? Bilen närmar sig ett trafikljus, men plötsligt brister bromsarna och datorn måste fatta ett beslut på en bråkdel av en sekund. Den kan svänga in i en närliggande stolpe och döda passageraren, eller fortsätta och döda fotgängaren framför sig.

    Datorn som styr bilen kommer bara att ha tillgång till begränsad information som samlas in via bilsensorer och måste fatta ett beslut utifrån detta. Hur dramatiskt detta än kan tyckas, är vi bara några år ifrån att potentiellt ställas inför sådana dilemman.

    Autonoma bilar kommer i allmänhet att ge säkrare körning, men olyckor kommer att vara oundvikliga – särskilt inom överskådlig framtid, när dessa bilar kommer att dela vägarna med mänskliga förare och andra trafikanter.

    Tesla producerar ännu inte helt autonoma bilar, även om man planerar det. I kollisionssituationer fungerar eller inaktiverar Tesla-bilar inte automatiskt det automatiska nödbromssystemet (AEB) om en mänsklig förare har kontrollen.

    Med andra ord störs inte förarens agerande – även om de själva orsakar kollisionen. Istället, om bilen upptäcker en potentiell kollision, skickar den varningar till föraren att vidta åtgärder.

    I "autopilot"-läge ska bilen dock automatiskt bromsa för fotgängare. Vissa hävdar att om bilen kan förhindra en kollision, så finns det en moralisk skyldighet för den att åsidosätta förarens handlingar i varje scenario. Men skulle vi vilja ha en autonom bil för att fatta detta beslut?

    Vad är ett liv värt?

    Tänk om en bils dator kunde utvärdera det relativa "värdet" för passageraren i bilen och fotgängaren? Om dess beslut beaktade detta värde, skulle det tekniskt sett bara vara att göra en kostnads-nyttoanalys.

    Detta kan låta alarmerande, men det finns redan tekniker under utveckling som kan tillåta detta att hända. Till exempel har det nyligen omarbetade varumärket Meta (tidigare Facebook) en högt utvecklad ansiktsigenkänning som enkelt kan identifiera individer i en scen.

    Om dessa data inkorporerades i ett autonomt fordons AI-system, skulle algoritmen kunna placera ett dollarvärde på varje liv. Denna möjlighet skildras i en omfattande 2018 studie utförd av experter vid Massachusetts Institute of Technology och kollegor.

    Genom Moral Machine-experimentet ställde forskare fram olika scenarier för självkörande bilar som tvingade deltagarna att bestämma sig för om de skulle döda en hemlös fotgängare eller en verkställande fotgängare.

    Resultaten visade att deltagarnas val berodde på nivån av ekonomisk ojämlikhet i deras land, där mer ekonomisk ojämlikhet innebar att de var mer benägna att offra den hemlösa mannen.

    Även om det inte är fullt så utvecklat, används sådan dataaggregation redan med Kinas sociala kreditsystem, som avgör vilka sociala rättigheter människor har.

    Hälsovårdsindustrin är ett annat område där vi kommer att se AI fatta beslut som kan rädda eller skada människor. Experter utvecklar alltmer AI för att upptäcka anomalier i medicinsk bildbehandling och för att hjälpa läkare att prioritera medicinsk vård.

    För närvarande har läkarna sista ordet, men när dessa tekniker blir allt mer avancerade, vad händer när en läkare och AI-algoritm inte ställer samma diagnos?

    Ett annat exempel är ett automatiserat läkemedelspåminnelsesystem. Hur ska systemet reagera om en patient vägrar att ta sin medicin? Och hur påverkar det patientens autonomi och systemets övergripande ansvar?

    AI-drivna drönare och vapen är också etiskt oroande, eftersom de kan fatta beslutet att döda. Det finns motstridiga åsikter om huruvida sådan teknik helt och hållet bör förbjudas eller regleras. Till exempel kan användningen av autonoma drönare begränsas till övervakning.

    Vissa har krävt att militära robotar ska programmeras med etik. Men detta väcker frågor om programmerarens ansvarighet i fallet där en drönare dödar civila av misstag.

    Filosofiska dilemman

    Det har förekommit många filosofiska debatter om de etiska beslut som AI kommer att behöva fatta. Det klassiska exemplet på detta är vagnproblemet.

    Människor kämpar ofta för att fatta beslut som kan få ett livsavgörande resultat. När vi utvärderar hur vi reagerar på sådana situationer, rapporterade en studie att valen kan variera beroende på en rad faktorer inklusive respondentens ålder, kön och kultur.

    När det kommer till AI-system är algoritmträningsprocesserna avgörande för hur de kommer att fungera i den verkliga världen. Ett system som utvecklats i ett land kan påverkas av det landets åsikter, politik, etik och moral, vilket gör det olämpligt för användning på en annan plats och i en annan tid.

    Om systemet styrde flygplan, eller styrde en missil, skulle du vilja ha en hög nivå av förtroende att det tränades med data som är representativa för miljön den används i.

    Exempel på misslyckanden och fördomar i teknologiimplementering har inkluderat rasistisk tvålautomat och olämplig automatisk bildmärkning.

    AI är inte "bra" eller "ond". Effekterna det har på människor kommer att bero på utvecklarnas etik. Så för att få ut det mesta av det måste vi nå enighet om vad vi anser vara "etiskt".

    Medan privata företag, offentliga organisationer och forskningsinstitutioner har sina egna riktlinjer för etisk AI, har FN rekommenderat att man utvecklar vad de kallar "ett omfattande globalt standardsättande instrument" för att tillhandahålla ett globalt etiskt AI-ramverk – och säkerställa att mänskliga rättigheter skyddas.

    © Vetenskap https://sv.scienceaq.com