• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Kommer vi någonsin att gå med på bara en uppsättning regler om den etiska utvecklingen av artificiell intelligens?

    Alla har sin egen idé om den etiska användningen av AI, men kan vi få en global konsensus? Kredit:Shutterstock/EtiAmmos

    Australien är bland 42 länder som förra veckan skrev under på en ny uppsättning policyriktlinjer för utveckling av artificiell intelligens (AI)-system.

    Ändå har Australien sitt eget utkast till riktlinjer för etik inom AI ute för offentligt samråd, och ett antal andra länder och branschorgan har utvecklat sina egna AI-riktlinjer.

    Så varför behöver vi så många riktlinjer, och är någon av dem verkställbar?

    De nya principerna

    Den senaste uppsättningen politiska riktlinjer är rekommendationen om artificiell intelligens från Organisationen för ekonomiskt samarbete och utveckling (OECD).

    Den främjar fem principer för ansvarsfull utveckling av pålitlig AI. Den innehåller också fem kompletterande strategier för att utveckla nationell politik och internationellt samarbete.

    Med tanke på att detta kommer från OECD, det går på gränsen mellan att främja ekonomisk förbättring och innovation och att främja grundläggande värderingar och förtroende för utvecklingen av AI.

    De fem AI-principerna uppmuntrar:

    1. inkluderande tillväxt, hållbar utveckling och välbefinnande
    2. människocentrerade värderingar och rättvisa
    3. transparens och förklaring
    4. robusthet, säkerhet och säkerhet
    5. ansvarighet.

    Dessa rekommendationer är breda och bär inte kraften av lagar eller ens regler. Istället försöker de uppmuntra medlemsländerna att införliva dessa värderingar eller etik i utvecklingen av AI.

    Men vad menar vi med AI?

    Det är svårt att ge specifika rekommendationer i relation till AI. Det beror delvis på att AI inte är en sak med en enda applikation som utgör enastående risker eller hot.

    Istället, AI har blivit en allmän term för att hänvisa till ett stort antal olika system. Var och en är vanligtvis utformad för att samla in och bearbeta data med hjälp av datorteknik, anpassa sig till förändringar, och agera rationellt för att uppnå sina mål, ytterst utan mänsklig inblandning.

    Dessa mål kan vara lika olika som att översätta språk, identifiera ansikten, eller till och med spela schack.

    Den typ av AI som är exceptionellt bra på att fullfölja dessa mål kallas ofta för smal AI. Ett bra exempel är en schackspelande AI. Detta är speciellt designat för att spela schack – och är extremt bra på det – men helt värdelöst vid andra uppgifter.

    Å andra sidan är allmän AI. Detta är AI som det sägs kommer att ersätta mänsklig intelligens i de flesta om inte alla uppgifter. Detta är fortfarande långt kvar men är fortfarande det slutliga målet för vissa AI-utvecklare.

    Ändå är det denna idé om allmän AI som driver många av de rädslor och missuppfattningar som omger AI.

    Många många riktlinjer

    Som svar på dessa farhågor och ett antal mycket verkliga problem med smal AI, OECD:s rekommendationer är de senaste av ett antal projekt och riktlinjer från regeringar och andra organ runt om i världen som försöker ingjuta ett etiskt förhållningssätt för att utveckla AI.

    Dessa inkluderar initiativ från Institute of Electrical and Electronics Engineers, den franska dataskyddsmyndigheten, integritetskommissionärens Hongkongs kontor och Europeiska kommissionen.

    Den australiensiska regeringen finansierade CSIROs Data61 för att utveckla ett AI-etiskt ramverk, som nu är öppen för allmänhetens feedback, och Australian Council of Learned Academies har ännu inte publicerat sin rapport om framtiden för AI i Australien.

    Australian Human Rights Commission, tillsammans med World Economic Forum, granskar och rapporterar också om AIs inverkan på mänskliga rättigheter.

    Syftet med dessa initiativ är att uppmuntra eller driva på etisk utveckling av AI. Men detta förutsätter oetiskt beteende. Vad är det för bus i AI?

    Oetisk AI

    En studie identifierade tre breda potentiella skadliga användningar av AI. Dessa mål:

    • digital säkerhet (t.ex. genom cyberattacker)
    • fysisk säkerhet (t.ex. attacker med drönare eller hacking)
    • politisk säkerhet (t.ex. om AI används för massövervakning, övertalning och bedrägeri).

    Ett område av oro är under utveckling i Kina, där flera regioner utvecklar ett socialt kreditsystem kopplat till massövervakning med hjälp av AI-teknik.

    Systemet kan identifiera en person som bryter mot sociala normer (som jaywalking, umgås med kriminella, eller missbrukar sociala medier) och debiterar sociala kreditpoäng från individen.

    När en kreditpoäng minskar, den personens friheter (såsom friheten att resa eller låna pengar) är begränsade. Även om detta ännu inte är ett rikstäckande system, rapporter tyder på att detta kan vara det yttersta målet.

    Till dessa medvetna missbruk av AI finns flera oavsiktliga bieffekter av dåligt konstruerad eller implementerad smal AI. Dessa inkluderar partiskhet och diskriminering och urholkning av förtroende.

    Bygger konsensus om AI

    Samhällen skiljer sig åt vad som är etiskt. Även människor inom samhällen skiljer sig åt i vad de betraktar som etiskt beteende. Så hur kan det någonsin bli en global konsensus om den etiska utvecklingen av AI?

    Med tanke på den mycket breda omfattningen av AI-utveckling, någon policy i relation till etisk AI kan ännu inte vara mer specifik förrän vi kan identifiera gemensamma normer för etiskt beteende som kan ligga till grund för vissa överenskomna globala regler.

    Genom att utveckla och uttrycka värderingarna, rättigheter och normer som vi anser vara viktiga nu i form av de rapporter och riktlinjer som beskrivs ovan, vi arbetar för att bygga förtroende mellan nationer.

    Gemensamma teman dyker upp i de olika riktlinjerna, såsom behovet av AI som tar hänsyn till mänskliga rättigheter, säkerhet, säkerhet, genomskinlighet, pålitlighet och ansvarighet, så vi kanske ännu är på väg mot något globalt samförstånd.

    Den här artikeln är återpublicerad från The Conversation under en Creative Commons-licens. Läs originalartikeln.




    © Vetenskap https://sv.scienceaq.com