• Home
  • Kemi
  • Astronomien
  • Energi
  • Naturen
  • Biologi
  • Fysik
  • Elektronik
  • Forskare utvecklar vaccin mot attacker mot maskininlärning

    Kredit:CC0 Public Domain

    Forskare från CSIRO's Data61, den data- och digitala specialistdelen av Australiens nationella vetenskapsbyrå, har utvecklat en världsförsta uppsättning tekniker för att effektivt "vaccinera" algoritmer mot kontradiktoriska attacker, ett betydande framsteg inom forskning om maskininlärning.

    Algoritmer "lär sig" av data de är tränade på för att skapa en maskininlärningsmodell som kan utföra en given uppgift effektivt utan att behöva specifika instruktioner, som att göra förutsägelser eller korrekt klassificera bilder och e-postmeddelanden. Dessa tekniker används redan flitigt, till exempel för att identifiera skräppost, diagnostisera sjukdomar från röntgenstrålar, förutsäga skördar och kommer snart att köra våra bilar.

    Medan tekniken har en enorm potential att positivt förändra vår värld, artificiell intelligens och maskininlärning är sårbara för motstridiga attacker, en teknik som används för att lura maskininlärningsmodeller genom inmatning av skadlig data som får dem att fungera.

    Dr Richard Nock, maskininlärningsgruppsledare vid CSIRO's Data61 sa att genom att lägga till ett lager av brus (dvs. en motståndare) över en bild, angripare kan lura maskininlärningsmodeller till att felklassificera bilden.

    "Attacker har visat sig kunna lura en maskininlärningsmodell att felaktigt märka en trafikstoppskylt som hastighetsskylt, som kan få katastrofala effekter i den verkliga världen.

    "Våra nya tekniker förhindrar motstridiga attacker med en process som liknar vaccination, " sa doktor Nock.

    "Vi implementerar en svag version av en motståndare, som små modifieringar eller förvrängning av en samling bilder, för att skapa en mer "svår" träningsdatauppsättning. När algoritmen tränas på data som utsätts för en liten dos distorsion, den resulterande modellen är mer robust och immun mot fientliga attacker, "

    I en forskningsartikel som godkändes vid 2019 års internationella konferens om maskininlärning (ICML), forskarna visar också att "vaccination" -teknikerna bygger på de värsta möjliga motsatta exemplen, och tål därför mycket starka angrepp.

    Adrian Turner, VD på CSIROs Data61 sa att denna forskning är ett betydande bidrag till det växande området för kontradiktorisk maskininlärning.

    "Artificiell intelligens och maskininlärning kan hjälpa till att lösa några av världens största sociala, ekonomiska och miljömässiga utmaningar, men det kan inte hända utan fokuserad forskning om dessa teknologier.

    "De nya teknikerna mot kontradiktoriska attacker som utvecklats vid Data61 kommer att starta en ny linje av maskininlärningsforskning och säkerställa en positiv användning av transformativ AI-teknik, sa Mr Turner.

    Forskningsdokumentet, "Monge gör Bayes trubbig:Hårdhetsresultat för motståndskraftig träning, " presenterades på ICML den 13 juni i Los Angeles.


    © Vetenskap https://sv.scienceaq.com