• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • AI:s etiska problem:Abstraktioner överallt, men var är reglerna?

    Upphovsman:CC0 Public Domain

    Maskiner som fattar beslut om oss:vad kan eventuellt gå fel? Uppsatser, tal, seminarier ställer den frågan år efter år när konstgjord intelligensforskning gör fantastiska framsteg. Inbakade fördomar i algoritmer är bara en av många frågor som ett resultat.

    Jonathan Shaw, redaktionschef, Harvard Magazine , skrev tidigare i år:"Artificiell intelligens kan aggregera och bedöma stora mängder data som ibland ligger utanför mänsklig förmåga att analysera utan hjälp, därigenom gör det möjligt för AI att göra rekryteringsrekommendationer, fastställa på några sekunder kreditvärdigheten för lånsökande, och förutsäga chanserna att kriminella kommer att kränka igen. "

    På nytt, vad kan gå fel?

    "AI -utveckling behöver stark moralisk vägledning om vi ska undvika några av de mer katastrofala scenarier som AI -kritiker tänker sig, "sade Stephen Fleischresser, föreläsare, University of Melbourne Trinity College, i Kosmos .

    Edd Gent in SingularityHub :"Oro kring integritet, öppenhet och algoritmers förmåga att förvränga social och politisk diskurs på oväntade sätt har resulterat i ett flöde av uttalanden från företag, regeringar, och även överstatliga organisationer om hur man bedriver etisk AI -utveckling. "

    Så, frågan blir, vem tänker på AI -butiken? Om vi ​​redan föreställer oss vad som kan gå fel med AI -bilden, WHO, vilken individ, vilka grupper, om någon, försöker du kanalisera allt snack och ta ledarskap för en fungerande uppsättning regler?

    En bra och läglig läsning om detta har dykt upp i Nature Machine Intelligence . Tidningen ger dig inte den enda lösningen men det skakar upp konversationen. Som titeln lyder, "Principerna ensamma kan inte garantera etisk AI."

    Författaren, Brent Mittelstadt, är från Oxford Internet Institute, Oxfords universitet, Oxford, Storbritannien och Alan Turing Institute, British Library, London, STORBRITANNIEN.

    Fleischresser beskrev Mittelstadt som "en etikist vars forskning främst rör digital etik i förhållande till algoritmer, maskininlärning, artificiell intelligens, prediktiv analys, Big Data och medicinska expertsystem. "

    Problemet har inte varit bristen på prat; "Etik för artificiell intelligens (AI) är nu ett globalt diskussionsämne i akademiska och politiska kretsar, "Mittelstadt uppgav." Minst 84 offentligt-privata initiativ har tagit fram uttalanden som beskriver principer på hög nivå, värderingar och andra principer för att styra den etiska utvecklingen, distribution och styrning av AI. "

    Problemet är att med allt snack, välmenande intressenter har inte gått långt bortom startporten. Det stödjande lagret av höga uttalanden och fetstilade principer kan vara på plats, men var är det översta lagret? "Den verkligt svåra delen av etik - att faktiskt översätta normativa teorier, begrepp och värderingar till god praxis AI -utövare kan ta till sig - sparkas på vägen som den ordspråkliga burken. "

    Även om höga principer är prisvärda, "AI -etiska initiativ har hittills i stor utsträckning producerat vaga, högnivåprinciper och värdeuttalanden som lovar att vara handlingsledande, men ger i praktiken få specifika rekommendationer ... Förklaringar från AI-företag och utvecklare som förbinder sig till etiska principer på hög nivå och självreglerande koder ger ändå beslutsfattare en anledning att inte driva nya regler. "

    Mittelstadt sa att "ett principiellt tillvägagångssätt kan ha begränsad inverkan på styrningen. Vad som saknas:Ett enhetligt regelverk som sätter upp" tydliga förtroendemässiga skyldigheter gentemot registrerade och användare. "Frånvaron av ett förtroendeförhållande, han sa, betyder att användare "inte kan lita på att utvecklare kommer att agera i deras bästa när de implementerar etiska principer i praktiken."

    Tidningen beskriver vad författaren identifierade som orosområden för AI -etikens framtid.

    Juridiskt och professionellt ansvar var ett av de viktigaste områdena som diskuteras - det vill säga "den relativa bristen på juridiska och professionella ansvarsmekanismer." Varför detta är ett problem:"Allvarligt, långsiktigt engagemang för självreglerande ramar kan inte tas för givet. "

    Författaren ställde den grundläggande frågan:Med tanke på dessa svagheter i befintliga juridiska och professionella ansvarsmekanismer för AI, man måste fråga:"räcker det att definiera goda avsikter och hoppas på det bästa? Utan kompletterande straffmekanismer och styrningsorgan för att kliva in när självstyrning misslyckas, ett principiellt tillvägagångssätt riskerar att bara ge falska försäkringar om etisk eller pålitlig AI. "

    Var går vi härifrån inom AI -etik?

    Författaren sa att detta "principiella" tillvägagångssätt kräver samarbetsövervakning. Tänk på "Bindande och mycket synliga ansvarsstrukturer" tillsammans med "tydliga implementerings- och granskningsprocesser" på sektoriell och organisatorisk nivå. "Professionella och institutionella normer kan fastställas genom att definiera tydliga krav på inkluderande design, transparent etisk granskning, dokumentation av modeller och datamängder, och oberoende etisk revision. "

    © 2019 Science X Network




    © Vetenskap https://sv.scienceaq.com