Användningen av bots för att blanda sig i politiska val. Algoritmer som lär sig vilka människor är och får dem att komma tillbaka till sociala medieplattformar. Framväxten av autonoma fordon och drönare som kan tränga undan hundratusentals arbetare.
"Robotapokalypsen" som vissa föreställde sig med uppkomsten av artificiell intelligens har inte kommit, men maskininlärningssystem håller på att bli en del av Kaliforniens vardag, tekniska experter berättade för statliga lagstiftare i Sacramento tidigare denna månad. När användningen av tekniken blir mer utbredd, det kommer även utmaningarna för lagstiftare som kommer att behöva brottas med hur och när de ska gå in för att skydda människors personuppgifter.
"AI kan vara överhypad, men den är här för att stanna, sade Olaf Groth, en internationell affärsprofessor vid UC Berkeley. "Vi är verkligen vid tröskeln, just nu, mellan AI är en ny utveckling som lovar betydande tillväxt i ekonomin, och AI orsakar också betydande störningar i samhället."
Utfrågningen i delstatsförsamlingen var den andra i år som tog upp frågan om artificiell intelligens. Utskottets ordförande, Församlingsledamoten Ed Chau, D-Arcadia, sade att han hoppades att det skulle vara en av många att inleda en dialog om en kraft som redan omformar samhället. Medlemmar av Little Hoover Commission, en oberoende statlig tillsynsmyndighet som granskar statlig verksamhet, höll en liknande diskussion förra månaden.
AI definieras löst som teorin och utvecklingen av datorsystem som kan utföra uppgifter som traditionellt kräver mänsklig intelligens. Domstolar använder artificiell intelligens för att avgöra om de tilltalade är lämpliga för frigivning mot borgen, forskare utvecklar AI-system för att matcha patienter med behandling och minst ett företag använder AI för att ompröva hur lokala butiker levererar matvaror.
Representanter för teknikföretagen Adobe och Postmates hävdade under denna månads utfrågning att lagstiftare inte borde gå för snabbt med att utveckla sekretessbestämmelser.
"Det bästa vi kan göra för att göra AI opartisk (och effektiv) är att se till att (lagstiftare) kan utbildas i de bredaste uppsättningarna av data som finns där ute, " sa Dana Rao, vice VD för immateriella rättigheter och rättstvister med Adobe.
Men tekniska sekretessexperter kontrade, säger att användare vill ha mer kontroll över hur deras personliga information delas. Patienter, till exempel, kan komma överens om att dela sina medicinska data med en AI-utvecklare, men kanske inte vill att företaget ska lämna ut sin information till sina arbetsgivare eller sjukförsäkringsbolag.
Statliga lagstiftare har börjat ta itu med några av dessa frågor. Lagstiftning i år skulle kräva att sociala företag identifierar bots på sina plattformar. Andra lagförslag skulle finansiera oberoende forskning om de beroendeframkallande egenskaperna hos sociala medier, kräver att tillverkare installerar nya säkerhetsfunktioner på sina internetanslutna enheter och tvingar polisen att avslöja all deras tekniska utrustning, såsom mjukvara för ansiktsigenkänning.
Jonathan Feldman från California Police Chiefs Assn. föreställde sig ett scenario där polisen en dag kommer att använda AI för att förutsäga våldsamt eller kriminellt beteende, så att tjänstemän kan fatta bättre beslut på jobbet. Men utan bättre öppenhetslagar, allmänheten kommer att ha liten kunskap om vad dessa automatiserade system samlar in från vanliga människor och om deras förutsägelser är korrekta, sa Matt Cagle, en teknologiadvokat vid ACLU i norra Kalifornien.
Samantha Corbin, en teknisk integritetslobbyist som nyligen var med och lanserade appen We Said Enough för att rapportera sexuella trakasserier, hävdade att det borde finnas mer statligt skydd mot datamissbruk på alla områden.
"Nivån av information som kan aggregeras, graden av intim kunskap som kommer att vara känd om individer – dessa livstidsdata – är på många sätt oskyddad av föråldrade befintliga lagar om integritet, säkerhet och till och med mänsklig forskning, " Hon sa.
©2018 Los Angeles Times
Distribueras av Tribune Content Agency, LLC.