• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Verkligt eller konstgjort? Tekniska titaner förklarar AI-etiska problem

    I denna 5 januari, 2019, filfoto människor står framför Google-tältet under förberedelserna för CES International i Las Vegas. Google-anställda har haft större framgång än andra teknikarbetare när det gäller att kräva förändring på företaget. Google avbröt ett kontrakt med Pentagon efter att anställda tryckt tillbaka på de etiska konsekvenserna av att använda företagsteknik för att analysera drönarvideo. (AP Photo/John Locher, Fil)

    De största teknikföretagen vill att du ska veta att de är särskilt noga med att se till att deras användning av artificiell intelligens för att sålla bland berg av data, analysera ansikten eller bygga virtuella assistenter spiller inte över till den mörka sidan.

    Men deras ansträngningar att dämpa oro för att deras maskiner kan användas för skändliga syften har inte anammats allmänt. Vissa skeptiker ser det som enbart fönsterputsning av företag som är mer intresserade av vinst än vad som är i samhällets bästa.

    "Etisk AI" har blivit en ny affärsfras, slagit på interna granskningskommittéer, snygga jobbtitlar, forskningsprojekt och filantropiska initiativ. Åtgärderna är avsedda att ta itu med oro över ras- och könsfördomar som uppstår i ansiktsigenkänning och andra AI-system, samt ta itu med oro över förluster av arbetstillfällen till tekniken och dess användning av brottsbekämpande myndigheter och militären.

    Men hur mycket substans ligger bakom de alltmer offentliga etikkampanjerna? Och vem får bestämma vilka tekniska sysslor som inte skadar?

    Google drabbades av båda frågorna när det bildade en ny styrelse med externa rådgivare i slutet av mars för att hjälpa till att vägleda hur man använder AI i produkter. Men istället för att vinna över potentiella kritiker, det väckte inre oturen. Lite mer än en vecka senare, Google böjde sig för påtryckningar från motreaktionen och upplöste rådet.

    Den yttre brädan föll isär i etapper. En av styrelsens åtta konstituerande medlemmar slutade inom några dagar och en annan blev snabbt måltavla för protester från Google-anställda som sa att hennes konservativa åsikter inte stämmer överens med företagets bekände värderingar.

    När tusentals anställda krävde att Heritage Foundations ordförande Kay Coles James, Google upplöste styrelsen förra veckan.

    "Det har blivit tydligt att i den nuvarande miljön, (rådet) kan inte fungera som vi ville, ", säger företaget i ett uttalande.

    Den miljön väcker ökande oro för att företagens AI-etiska kampanjer saknar tänder.

    "Jag tror (Googles beslut) återspeglar en bredare allmän förståelse för att etik innebär mer än att bara skapa en etikstyrelse utan ett institutionellt ramverk för ansvarsskyldighet, " AI-forskaren Ben Wagner sa.

    Googles ursprungliga initiativ föll in i en teknisk industritrend som Wagner kallar "ethics-washing, "som han beskriver som en ytlig insats som mest är en show för allmänheten eller lagstiftare.

    "Det är i grunden ett försök att låtsas som om du gör etiska saker och använder etik som ett verktyg för att nå ett slut, som att undvika reglering, sa Wagner, en biträdande professor vid Wiens ekonomi- och företagsuniversitet. "Det är en ny form av självreglering utan att kalla det det vid namn."

    Stora företag har gjort en allt mer synlig insats för att diskutera sina AI-insatser de senaste åren.

    Microsoft, som ofta försöker positionera sig som en branschledare i etik- och integritetsfrågor, publicerade sina principer kring utveckling av AI, släppt en kort bok som diskuterade teknikens samhälleliga konsekvenser och som har efterlyst viss statlig reglering av AI-teknik.

    Företagets president träffade till och med påven Franciskus tidigare i år för att diskutera branschens etik. Amazon meddelade nyligen att det hjälper till att finansiera federal forskning om "algoritmisk rättvisa, " och Salesforce anställer en "arkitekt" för etisk AI-praktik, samt en "chief ethical and human use" officer. Det är svårt att hitta ett märkesteknikföretag utan liknande initiativ.

    Den 21 maj 2018, filfoto utrikesminister Mike Pompeo, vänster, sällskap av Heritage Foundations president Kay Coles James, talar på Heritage Foundation, en konservativ tankesmedja för offentlig politik, i Washington. Google-anställda har haft större framgång än andra teknikarbetare när det gäller att kräva förändring på företaget. Google avbröt ett kontrakt med Pentagon efter att anställda tryckt tillbaka på de etiska konsekvenserna av att använda företagsteknik för att analysera drönarvideo. Och efter mer än 2, 400 Google-anställda undertecknade en petition som kräver att James tas bort från styrelsen, Google skrotade tavlan helt och hållet. (AP Photo/J. Scott Applewhite, Fil)

    Det är bra att företag studerar frågan och söker perspektiv på branschetik, sa Oren Etzioni, VD för Allen Institute for Artificiell Intelligens, en forskningsorganisation. Men i slutändan, han sa, ett företags VD har i uppdrag att bestämma vilka förslag om AI-etik som ska införlivas i affärsbeslut.

    "Jag tror att det överlag är ett positivt steg snarare än ett fikonblad, " sa han. "Det sa, beviset är i framgångsrik implementering. Jag tror att juryn fortfarande är ute på det."

    Den inverkan artificiell intelligens kan ha på samhället har aldrig varit tydligare, Etzioni sa, och företag reagerar på studier om kraften i rekommendationsalgoritmer och könsfördomar i AI.

    Men som Googles försök visar, Att diskutera frågorna i allmänhetens ögon uppmanar också till offentlig granskning.

    Google-anställda har haft större framgång än andra teknikarbetare när det gäller att kräva förändring på sitt företag. Internetsökningsgiganten lade ner ett kontrakt med Pentagon efter att anställda tryckt tillbaka på de etiska konsekvenserna av att använda företagets AI-teknik för att analysera drönarvideo.

    Och efter mer än 2, 400 Google-anställda undertecknade en petition som kräver att James tas bort från styrelsen, Google skrotade tavlan helt och hållet. Anställda sa att James har gjort tidigare kommentarer som var anti-trans och anti-invandrare och inte borde vara med i en etikpanel. Heritage Foundation svarade inte på en begäran om kommentar.

    Google hade också mött oliktänkande från sina utvalda rådsmedlemmar. Alessandro Acquisti, professor vid Carnegie Mellon University, meddelade på Twitter att han tackade nej till inbjudan. Han skrev att han är hängiven att brottas med rättvisa och inkludering i AI, men detta var inte "rätt forum för mig att engagera mig i detta viktiga arbete." Han avböjde att kommentera ytterligare.

    En expert som hade förbundit sig att stanna kvar i rådet är Joanna Bryson, docent i databehandling vid University of Bath. En självbeskriven liberal, hon sa innan upplösningen att det är vettigt att ha politisk mångfald i panelen, och hon höll inte med dem som tror att det bara är för att visa.

    "Jag tycker bara inte att Google är så dumt, " sa Bryson. "Jag tror inte att de är där bara för att ha en affisch på en vägg."

    Hon sa, dock, att företag som Google och Microsoft har en verklig oro för ansvar – vilket betyder att de vill se till att de visar sig, och allmänheten, att de har gjort sitt bästa för att bygga produkter på rätt sätt innan de släppte dem.

    "Det är inte bara rätt sak att göra, det är det de behöver göra, " sa hon. Bryson sa att hon var hoppfull att Google faktiskt ville brainstorma svåra problem och borde hitta ett annat sätt att göra det efter att rådet upplöstes.

    Det är oklart vad Google kommer att göra härnäst. Företaget sa att det "går tillbaka till ritbordet" och skulle hitta andra sätt att få åsikter utifrån.

    Wagner sa att det nu skulle vara dags för Google att sätta upp etiska principer som inkluderar åtaganden som de måste hålla sig till, extern tillsyn och andra kontrollpunkter för att hålla dem ansvariga.

    Även om företag fortsätter att inrätta externa styrelser för att övervaka AI-ansvar, statlig reglering kommer fortfarande att behövas, sa Liz O'Sullivan, en teknikarbetare som lämnade AI-företaget Clarifai över företagets arbete i Pentagons Project Maven – samma projekt som Google lade ner efter att dess anställda protesterat.

    O'Sullivan är försiktig med styrelser som kan komma med förslag som företag inte har någon juridisk skyldighet att hålla sig till.

    "Varje företag av den storleken som uppger att de är intresserade av att ha någon form av tillsyn som inte har någon förmåga eller befogenhet att begränsa eller begränsa företagets beteende verkar som om de gör det för pressen av allt, " Hon sa.

    © 2019 The Associated Press. Alla rättigheter förbehållna.




    © Vetenskap https://sv.scienceaq.com