• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Pratar om hur vi pratar om etik för artificiell intelligens

    Upphovsman:CC0 Public Domain

    Om du vill förstå hur människor tänker (och känner) om ny teknik, Det är viktigt att förstå hur medier tänker (och skriver) om ny teknik.

    En färsk analys av hur journalister har hanterat etik för artificiell intelligens (AI) tyder på att reportrar gör ett bra jobb med att kämpa med en komplex uppsättning frågor - men det finns utrymme för förbättringar.

    För att lära dig mer om arbetet, varför de gjorde det, och varför det är viktigt, vi pratade med forskarna som gjorde jobbet:Veljko Dubljević, motsvarande författare till tidningen och en biträdande professor i filosofi vid NC State; Leila Ouchchy, första författare till tidningen och en tidigare kandidatexamen vid NC State; och Allen Coin, medförfattare till uppsatsen och en doktorand vid NC State.

    Pappret, "AI i rubrikerna:skildringen av de etiska frågorna om artificiell intelligens i media, "publicerades i tidningen AI och samhälle den 29 mars.

    Sammanfattningen:Detta dokument fokuserar, till viss del, om etiska frågor relaterade till AI -teknik som människor skulle använda i sitt dagliga liv. Kan du ge mig ett eller två exempel?

    Allen Coin:Förmodligen den mest kända applikationen av AI med mycket verkliga etiska konsekvenser skulle vara självkörande bilar. Om en autonom bil befinner sig i en situation där den har till exempel, tappat kontrollen över bromsarna och måste antingen krascha in i ett barn eller en vuxen, vad ska den göra? Om du 'kör' en autonom bil och du blir medvetslös, och bilen bryr sig utom kontroll och har valet mellan att krascha mot en fotgängare, så räddar du ditt liv, eller kör från en klippa, därmed offra ditt liv, vad ska den göra? Vad skulle du vilja att din bil skulle göra i den situationen?

    Det här är "Trolley Problem" från den verkliga världen som även människor skulle kämpa för att ta moraliska och etiska beslut om i stundens hetta.

    Ett annat lite mer lömskt exempel skulle vara hur mänskliga fördomar och fördomar till synes har en tendens att dyka upp i AI -applikationer som människor utvecklar. Maskininlärningsalgoritmer, till exempel, berör allt fler områden i människolivet. Men dessa algoritmer måste "utbildas" i verkliga datamängder. Om datamängderna representerar fördomsfullt mänskligt beteende, även om det inte är direkt uppenbart eller om du försöker avskärma det, det kan betyda att den resulterande programvaran inte kan agera objektivt.

    Ett exempel skulle vara HR -programvara för stora företag som skärmar arbetssökande baserat på liknande egenskaper som tidigare framgångsrika sökande, vilket innebär att om det fanns en köns- eller rasfördom när människor fattade anställningsbeslut kan "roboten" fortsätta att bete sig med dessa fördomar när de väljer kandidater.

    TA:För denna forskning, du tittade specifikt på hur nyhetsmedia täckte dessa etiska överväganden. Varför?

    Leila Ouchchy:Vi tittade specifikt på nyhetsmedier på grund av den effekt nyheter kan ha på opinionen angående ny teknik. Mediebevakningen av AI:s etik har potential att påverka hur AI implementeras i vårt samhälle, från den typ av AI som produceras av företag till hur AI regleras av regeringen.

    TA:Varför inte också titta på hur AI -etik behandlas i populärkulturen, som TV eller film? Upplyser inte dessa också offentliga bekymmer?

    Veljko Dubljević:Den offentliga representationen av etiska frågor inom AI i skönlitteratur har redan fått mer uppmärksamhet i det akademiska samfundet, och det är både bra och dåligt.

    Bra med det är att vi har några analyser där ute, vilket kan vara användbart.

    Den dåliga sidan, dock, är att detta inte är starkt förankrat i vetenskapliga fakta och redan tillgänglig teknik, vilket gör detta mer benäget för utopiska och dystopiska överdrifter.

    TA:Vad fann din analys av nyhetsbutiker? Och vad betyder det?

    Ouchchy:Det har skett en kraftig ökning av antalet artiklar som publicerats under de senaste åren, vilket visar att mängden medieinnehåll som publiceras om AI:s etik har kontinuerligt ökat, och kommer sannolikt att fortsätta att öka eftersom detta blir en vanligare fråga. Dessutom, det diskuterades lite om etiska ramar och principer utifrån dem, vilket tyder på bristande deltagande eller inflytande från etikister i mediediskussionen. Till sist, vi fann att artiklarna mestadels hade neutrala toner, och fokuserade på praktiska och relevanta frågor, även om deras rekommendationer inte var särskilt specifika. Detta visar att mediediskussionen om AI:s etik är relativt sofistikerad, men fortfarande i ett tidigt skede.

    TA:Vad kan eller bör reportrar göra annorlunda när det gäller etik och AI -teknik?

    Dubljević:Journalister kan ha nytta av att nå ut till AI -tekniksexperter och etikister för att få ut relevanta fakta och värderingar. Diskussionen kan vara relativt sofistikerad, men det finns säkert utrymme för förbättringar.

    Mynt:För att lägga till denna punkt, en sak som slog mig om resultaten av denna forskning är att en av de vanligaste citerade "etiska ramarna" i artiklar om AI -etik är Isaac Asimovs "Three Laws of Robotics". Nu, Jag är verkligen ett fan av Asimovs science fiction, men hans "Tre lagar" är inte en formell etisk ram. Det är inte heller särskilt användbart i samband med verkliga diskussioner om hur AI kan och bör bete sig etiskt.

    Utilitarism diskuterades också ofta i nyhetsartiklar om AI -etik, så jag tror att det finns en möjlighet att modernisera hur vi pratar om AI -etik. Specifikt, vi kan-eller borde-använda mer moderna etiska ramar som kan hantera invecklingarna och komplexiteten i verkliga tillämpningar av artificiella moraliska agenter. Jag håller också med Veljko om att journalister ska nå ut till AI-forskare och etiker oftare-jag tror att det finns många experter som med glädje skulle kunna prata om varje journalist som vill ha ett detaljerat etiskt perspektiv på alla AI-relaterade nyheter .


    © Vetenskap https://sv.scienceaq.com