Det finns en växande oro för de potentiella riskerna med AI – och ökande kritik mot teknikjättar. I kölvattnet av vad som har kallats en AI-backlash eller "techlash", stater och företag vaknar upp till det faktum att design och utveckling av AI måste vara etisk, gynna samhället och skydda mänskliga rättigheter.
Under de senaste månaderna, Google har mött protester från sin egen personal mot företagets AI-arbete med den amerikanska militären. Det amerikanska försvarsdepartementet anlitade Google för att utveckla AI för att analysera drönarfilmer i det som kallas "Project Maven".
En talesperson för Google rapporterades ha sagt:"reaktionen har varit fruktansvärd för företaget" och "det åligger oss att visa ledarskap." Hon hänvisade till "planer på att avslöja nya etiska principer." Dessa principer har nu släppts.
Googles vd, Sundar Pichar, erkände att "det här området är dynamiskt och utvecklas" och sa att Google skulle vara villigt "att anpassa vårt tillvägagångssätt allt eftersom vi lär oss över tiden." Detta är viktigt eftersom medan principerna är en början, mer arbete och mer konkreta åtaganden behövs om Google ska bli effektivt för att skydda mänskliga rättigheter.
Googles principer för AI
Google förbinder sig också att inte fortsätta:
Men det finns få detaljer om hur det faktiskt kommer att göra det.
AI-tillämpningar kan orsaka en lång rad skador
Googles principer erkänner AI:s risk för partiskhet och dess hot mot integriteten. Detta är viktigt mot bakgrund av fynden att Googles sökalgoritmer kan reproducera ras- och könsstereotyper. Men principerna misslyckas med att erkänna de vidare riskerna för alla mänskliga rättigheter och behovet av att skydda dem. Till exempel, partiska algoritmer leder inte bara till diskriminering utan kan också påverka tillgången till jobbmöjligheter.
Förutom sökmotorn, Googles andra företag kan också ta upp frågor om mänskliga rättigheter. Google skapade företaget Jigsaw, som använder AI för att kurera onlineinnehåll i ett försök att ta itu med kränkande språk, hot, och trakasserier på nätet. Men innehållsmoderering kan också utgöra ett hot mot rätten till yttrandefrihet.
Google Brain använder maskininlärning för att förutsäga hälsoresultat från medicinska journaler, och Google Cloud kommer att samarbeta med Fitbit. Båda dessa exempel väcker integritets- och dataskyddsproblem. Våra kollegor har också ifrågasatt om partnerskap som Google DeepMind och NHS gynnar eller undergräver staters skyldigheter att införa ett sjukvårdssystem som "ger lika möjligheter för människor att njuta av den högsta möjliga hälsonivån."
Vad ska Google göra?
Googles övergripande tillvägagångssätt bör baseras på att hitta sätt för AI att vara till nytta för samhället utan att kränka mänskliga rättigheter. Att förklara sin första princip som "socialt fördelaktig, " Google säger att det bara skulle "gå vidare där vi tror att de totala sannolika fördelarna väsentligt överstiger de förutsebara riskerna och nackdelarna." Men ett tillvägagångssätt som balanserar riskerna mot fördelarna är inte förenligt med mänskliga rättigheter. En stat eller ett företag, som Google, kan inte utveckla en AI som lovar att gynna vissa människor på bekostnad av de mänskliga rättigheterna för ett fåtal eller ett visst samhälle. Snarare, det måste hitta ett sätt att säkerställa att AI inte skadar mänskliga rättigheter.
Så, Google måste fullt ut överväga effekterna av AI på mänskliga rättigheter under hela utvecklingen och implementeringen. Speciellt så, eftersom det kan uppstå risker även om tekniken inte är konstruerad för skadliga ändamål. Internationella människorättsstandarder och normer – inklusive FN:s vägledande principer för företag och mänskliga rättigheter – täcker både syftet och effekten av företagens agerande, inklusive Google, om mänskliga rättigheter. Dessa befintliga ansvarsområden måste återspeglas mycket tydligare i Googles principer, särskilt på de positiva åtgärder som Google kommer att vidta för att skydda skada på mänskliga rättigheter, även om det är oavsiktligt.
Att vara ansvarig för hur den utvecklar och distribuerar AI, Google måste gå bortom det nuvarande preliminära språket om att uppmuntra arkitekturer för integritet och säkerställa "lämplig mänsklig ledning och kontroll" utan att förklara vem som bestämmer vad som är lämpligt och på vilken grund. Den måste integrera mänskliga rättigheter i utformningen av AI och inkorporera skyddsåtgärder såsom konsekvensbedömningar av mänskliga rättigheter och oberoende tillsyns- och granskningsprocesser i principerna.
Principerna bör också beskriva hur skador på mänskliga rättigheter kommer att avhjälpas och hur individer och grupper som påverkas kan göra anspråk, som för närvarande saknas.
Vägen framåt?
Att lansera principerna, Googles vd Sundar Picar insåg att sättet på vilket AI utvecklas och används kommer att ha "en betydande inverkan på samhället i många år framöver." Googles pionjärroll inom AI innebär att företaget, enligt Sundar, "känner ett djupt ansvar för att få det här rätt."
Även om principerna är en viktig början, de behöver mycket mer utveckling om vi ska vara säkra på att våra mänskliga rättigheter kommer att skyddas. Nästa steg är att Google bäddar in mänskliga rättigheter, skydds- och ansvarsprocesser under hela deras AI-utveckling. Det är vad som behövs för att "få det här rätt".
Denna artikel publicerades ursprungligen på The Conversation. Läs originalartikeln.