• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Massiva fel hittade i ansiktsigenkänningsteknik:amerikansk studie

    Programvara för ansiktsigenkänning kan ge mycket felaktiga resultat, enligt en amerikansk regeringsstudie om tekniken, som används för brottsbekämpning, flygplatssäkerhet och på andra ställen

    Ansiktsigenkänningssystem kan ge väldigt felaktiga resultat, speciellt för icke-vita, enligt en amerikansk regeringsstudie som släpptes på torsdagen som sannolikt kommer att väcka nya tvivel om utbyggnaden av artificiell intelligens-teknologi.

    Studien av dussintals ansiktsigenkänningsalgoritmer visade "falskt positiva" frekvenser för asiatiska och afroamerikaner så mycket som 100 gånger högre än för vita.

    Forskarna från National Institute of Standards and Technology (NIST), ett statligt forskningscentrum, fann också två algoritmer som tilldelade svart kön fel kön nästan 35 procent av tiden.

    Studien kommer mitt i en utbredd användning av ansiktsigenkänning för brottsbekämpning, flygplatser, gränssäkerhet, bank, detaljhandel, skolor och för personlig teknik som att låsa upp smartphones.

    Vissa aktivister och forskare har hävdat att risken för fel är för stor och att misstag kan resultera i fängelse av oskyldiga människor, och att tekniken skulle kunna användas för att skapa databaser som kan ha hackats eller använts på ett olämpligt sätt.

    NIST -studien fann båda "falska positiva, " där en person identifieras av misstag, och "falska negativ, " där algoritmen misslyckas med att korrekt matcha ett ansikte till en specifik person i en databas.

    "Ett falskt negativt kan bara vara ett besvär – du kan inte komma in i din telefon, men problemet kan vanligtvis åtgärdas genom ett andra försök, ", sa huvudforskaren Patrick Grother.

    "Men ett falskt positivt i en en-till-många-sökning sätter en felaktig matchning på en lista över kandidater som kräver ytterligare granskning."

    Studien fann att USA-utvecklade ansiktsigenkänningssystem hade högre felfrekvenser för asiater, afroamerikaner och indiangrupper, med den amerikanska indiska demografin som visar den högsta andelen falska positiva resultat.

    Dock, vissa algoritmer utvecklade i asiatiska länder producerade liknande noggrannhetsgrader för matchning mellan asiatiska och kaukasiska ansikten - vilket forskarna sa tyder på att dessa skillnader kan korrigeras.

    "Dessa resultat är ett uppmuntrande tecken på att mer varierande träningsdata kan ge mer rättvisa resultat, sa Grother.

    Ändå, Jay Stanley från American Civil Liberties Union, som har kritiserat införandet av ansiktsigenkänning, sade att den nya studien visar att tekniken inte är redo för bred utbyggnad.

    "Till och med statliga forskare bekräftar nu att denna övervakningsteknik är felaktig och partisk, "Sade Stanley i ett uttalande.

    "En falsk matchning kan leda till missade flygningar, långa förhör, placeringar på bevakningslistan, spända polismöten, falska arresteringar eller värre. Men teknikens brister är bara ett problem. Teknik för ansiktsigenkänning – korrekt eller inte – kan möjliggöra oupptäckbar, beständig, och misstankelös övervakning i en aldrig tidigare skådad omfattning."

    © 2019 AFP




    © Vetenskap https://sv.scienceaq.com