Kredit:Pixabay/CC0 Public Domain
Från bank till kommunikation vår moderna, dagliga liv drivs av data med pågående oro över integritet. Nu, en ny EPFL-artikel publicerad i Nature Computational Science Parlamentet hävdar att många löften som gjorts kring integritetsbevarande mekanismer aldrig kommer att uppfyllas och att vi måste acceptera dessa inneboende gränser och inte jaga det omöjliga.
Datadriven innovation i form av personlig medicin, bättre offentliga tjänster eller till exempel grönare och effektivare industriproduktion lovar att ge enorma fördelar för människor och vår planet och bred tillgång till data anses vara avgörande för att driva denna framtid. Ändå väcker aggressiva datainsamlings- och analysmetoder larm om samhälleliga värderingar och grundläggande rättigheter.
Som ett resultat har hur man kan bredda åtkomsten till data samtidigt som sekretessen för känslig, personlig information skyddas, blivit en av de vanligaste utmaningarna när det gäller att frigöra potentialen hos datadrivna tekniker och ett nytt dokument från EPFL:s Security and Privacy Engineering Lab (SPRING) i School of Comupter and Communication Sciences hävdar att löftet att all dataanvändning är lösbar under både god nytta och integritet är besläktad med att jaga regnbågar.
Chef för SPRING Lab och medförfattare till uppsatsen, biträdande professor Carmela Troncoso, säger att det finns två traditionella metoder för att bevara integritet, "Det finns vägen att använda integritetsbevarande kryptografi, bearbeta data i en dekrypterad domän och få en resultat. Men begränsningen är behovet av att designa mycket riktade algoritmer och inte bara utföra generiska beräkningar."
Problemet med denna typ av integritetsbevarande teknik, hävdar tidningen, är att de inte löser ett av de viktigaste problemen som är mest relevanta för praktiker:hur man delar högkvalitativ data på individnivå på ett sätt som bevarar integriteten men tillåter analytiker för att extrahera en datauppsättnings fulla värde på ett mycket flexibelt sätt.
Den andra vägen som försöker lösa denna utmaning är anonymiseringen av data – det vill säga borttagning av namn, platser och postnummer, men, menar Troncoso, ofta är problemet själva data. "Det finns ett känt Netflix-exempel där företaget bestämde sig för att släppa datauppsättningar och köra en offentlig tävling för att producera bättre "rekommendations"-algoritmer. Det tog bort namnen på kunder men när forskare jämförde filmbetyg med andra plattformar där folk betygsätter filmer, kunde de att avanonymisera människor."
På senare tid har syntetisk data dykt upp som en ny anonymiseringsteknik, men tidningen antyder att den, i motsats till de löften som dess förespråkare ger, är föremål för samma avvägningar mellan sekretess och nytta som den traditionella anonymiseringen av data. "Som vi säger i vår artikel bör forskare och praktiker acceptera den inneboende avvägningen mellan hög flexibilitet i dataverktyg och starka garantier kring integritet", säger Theresa Stadler, doktorandassistent i SPRING Lab och tidningens medförfattare.
"Detta kan mycket väl innebära att omfattningen av datadrivna applikationer behöver minskas och datainnehavare kommer att behöva göra tydliga val om vilken metod för datadelning som är mest lämpad för deras användningsfall," fortsatte Stadler.
Ett annat nyckelbudskap i tidningen är idén om en långsammare, mer kontrollerad utgivning av teknik. Idag är ultrasnabb driftsättning normen med en "vi fixar det senare" mentalitet om det går fel, ett tillvägagångssätt som Troncoso anser är mycket farligt, "Vi måste börja acceptera att det finns gränser. Vill vi verkligen fortsätta denna datadriven gratis för alla där det inte finns någon integritet och med stor inverkan på demokratin? Det är som Groundhog Day, vi har pratat om detta i 20 år och samma sak händer nu med maskininlärning. Vi lägger ut algoritmer , de är partiska och förhoppningen är att de senare kommer att fixas. Men tänk om de inte kan fixas?"
Ändå är smal funktionalitet och hög integritet inte teknikjättarnas affärsmodell och Troncoso uppmanar oss alla att tänka mer noggrant över hur de tar itu med denna kritiska fråga.
"Många av de saker som Google och Apple gör är i huvudsak att vittja sina skadliga metoder och stänga marknaden. Till exempel låter Apple inte appar samla in information utan samlar in själva data på ett så kallat "integritetsbevarande" sätt och säljer sedan det på. Det vi säger är att det inte finns något sätt att bevara integriteten. Frågan är "förhindrade tekniken skada från systemet eller gjorde den bara systemet lika skadligt"? Integritet i sig är inte ett mål, integritet är ett medel för att skydda oss själva", avslutar Troncoso.