• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Digital ålder behöver desperat etiska och juridiska riktlinjer

    En av de angelägna frågorna som uppstår med artificiell intelligens är hur man ska redogöra för handlingarna hos maskiner som fattar beslut själva. Upphovsman:ITU Pictures, licensierad under CC BY 2.0

    Digital teknik som artificiell intelligens och robotik, 'desperat' behöver en institutionell ram och värderingssystem för att hjälpa till att reglera branschen, har en etikexpert berättat för ledande forskare och beslutsfattare.

    Jeroen van den Hoven, professor i etik och teknik vid Delft University of Technology i Nederländerna, talade vid en session om etik i vetenskap och teknik vid EuroScience Open Forum (ESOF) 2018, som hålls i Toulouse, Frankrike, från 9-14 juli.

    "Folk blir medvetna om att denna digitala tidsålder inte är neutral ..., den presenteras för oss främst av stora företag som vill göra lite vinst, " han sa.

    Han efterlyste ett europeiskt nätverk av institutioner som kan tillhandahålla en uppsättning värderingar, baserat på EU:s stadga om grundläggande rättigheter, som teknikindustrin skulle kunna verka inom.

    "Vi måste ställa upp, som vi har gjort för mat, för luftfart och trafik, ... ett genomarbetat system av institutioner som kommer att (se) detta område av artificiell intelligens.

    "Vi måste tänka på styrning, inspektion, övervakning, testning, certifiering, klassificering, standardisering, utbildning, alla dessa saker. De finns inte där. Vi behöver desperat, och väldigt snabbt, hjälpa oss själva. "

    Prof. van den Hoven är medlem i European Group on Ethics in Science and New Technologies (EGE), ett oberoende rådgivande organ för Europeiska kommissionen, som organiserade sessionen han talade vid.

    I mars, EGE publicerade ett uttalande om artificiell intelligens (AI), robotik och autonoma system, som kritiserade det nuvarande "lapptäcket av olika initiativ" i Europa som försöker hantera det sociala, juridiska och etiska frågor som AI har genererat. I uttalandet, EGE krävde upprättandet av en strukturerad ram.

    EU-kommissionen meddelade den 14 juni att de har gett en högnivågrupp på 52 personer från akademin, samhället och industrin med jobbet att ta fram riktlinjer för EU:s AI-relaterade politik, inklusive etiska frågor som rättvisa, säkerhet, insyn och upprätthållande av de grundläggande rättigheterna.

    Expertgruppen, som inkluderar representanter från branschledare inom AI som Google, BMW och Santander, ska presentera sina riktlinjer för Europeiska kommissionen i början av 2019.

    Partiskhet

    Etiska frågor kring AI-som fördomar i maskininlärningsalgoritmer och hur man övervakar beslutsfattandet av autonoma maskiner-väckte också omfattande diskussioner vid ESOF 2018-konferensen.

    Ett stort problem som växer fram med den snabba utvecklingen av maskininlärning, är frågan om hur man redogör för en maskins handlingar. Detta är ett särskilt problem när man använder AI baserat på neurala nätverk, ett komplext system inrättat för att efterlikna den mänskliga hjärnan som gör det möjligt att lära av stora datamängder. Detta resulterar ofta i att algoritmen blir det som kallas en 'svart låda, "där det är möjligt att se vad som går in och vad som kommer ut, men inte hur resultatet kom fram.

    Maaike Harbers, en forskningsprofessor vid Rotterdam University of Applied Sciences i Nederländerna, sa att detta var en viktig fråga inom militären, där vapenrustade drönare används för att utföra åtgärder.

    "På det militära området, ett mycket viktigt begrepp är meningsfull mänsklig kontroll, "sa hon." Vi kan bara styra eller styra autonoma maskiner om vi förstår vad som händer. "

    Professor Harbers tillade att en bra design av gränssnittet mellan människor och maskiner kan hjälpa till att säkerställa att människor utövar kontroll i tre viktiga skeden - datainmatning, behandling och resonemang, och utgången eller åtgärden.

    Även inom teknik som använder AI för ändamål som verkar vara överväldigande positiva, till exempel sociala robotar för barn, ta upp några knepiga etiska frågor. Konferenspubliken hörde att forskare som arbetar inom detta område brottas med den effekt som denna teknik kan ha på familjeförhållanden, till exempel, eller om de kan skapa ojämlikheter i samhället, eller om de kan skapa social isolering.

    Inom området för automatiserad transport, forskare tittar också på vilken inverkan självkörande bilar kan ha på bredare frågor som rättvisa och jämlikhet. De undersöker frågor som sträcker sig från hur man säkerställer lika tillgång till nya transportformer till vem som ska dra nytta av eventuella kostnadsbesparingar i samband med automatiserade transporter.

    Dock, de värden som vi sätter i AI kan vara en nyckelfaktor för att allmänheten accepterar ny teknik.

    En av de mest kända moraliska dilemman med självkörande bilar, till exempel, är det så kallade vagnproblemet. Detta ställer frågan om ett autonomt fordon som är på väg mot en olycka med en grupp människor ska undvika det genom att svänga in på en väg som skulle träffa bara en person.

    Dr Ebru Burcu Dogan från Vedecom Institute i Frankrike, sa forskning visar att medan människor var för en utilitaristisk lösning på dilemmat - till exempel döda föraren snarare än fem fotgängare - de personligen skulle inte vilja köpa eller åka i ett fordon som var programmerat på ett sådant sätt.

    "Vi vill alla dra nytta av implementeringen av en teknik, men vi vill inte nödvändigtvis ändra vårt beteende, eller anta ett nödvändigt beteende för att komma dit. "


    © Vetenskap https://sv.scienceaq.com