Kredit:Pixabay/CC0 Public Domain
Falskt ljud- eller videoinnehåll har rankats av experter som den mest oroande användningen av artificiell intelligens när det gäller dess potentiella tillämpningar för brott eller terrorism, enligt en ny UCL-rapport.
Studien, publicerad i Kriminalvetenskap och finansierat av Dawes Center for Future Crime vid UCL (och tillgänglig som en policyinformation), identifierade 20 sätt AI skulle kunna användas för att underlätta brott under de kommande 15 åren. Dessa rangordnades efter oro – baserat på den skada de kunde orsaka, potentialen för kriminell vinst eller vinst, hur lätta de skulle vara att genomföra och hur svåra de skulle vara att stoppa.
Författare sa att falskt innehåll skulle vara svårt att upptäcka och stoppa, och att det kan ha en mängd olika syften – från att misskreditera en offentlig person till att utvinna pengar genom att imitera ett pars son eller dotter i ett videosamtal. Sådant innehåll, de sa, kan leda till en utbredd misstro mot ljud- och bildbevis, vilket i sig skulle vara en samhällsskada.
Förutom falskt innehåll, fem andra AI-aktiverade brott bedömdes vara av stor oro. Dessa använde förarlösa fordon som vapen, hjälpa till att skapa mer skräddarsydda nätfiskemeddelanden (spear phishing), störa AI-kontrollerade system, skörda information online för storskalig utpressning, och AI-författade falska nyheter.
Seniorförfattaren professor Lewis Griffin (UCL Computer Science) sa:"När kapaciteten hos AI-baserad teknik expanderar, så har deras potential för kriminellt utnyttjande också. För att förbereda sig för möjliga AI-hot, vi måste identifiera vilka dessa hot kan vara, och hur de kan påverka våra liv."
Forskare sammanställde de 20 AI-aktiverade brotten från akademiska artiklar, nyheter och aktualitetsrapporter, och skönlitteratur och populärkultur. De samlade sedan 31 personer med expertis inom AI för två dagars diskussioner för att rangordna allvaret av de potentiella brotten. Deltagarna kom från akademin, den privata sektorn, polisen, regeringen och statliga säkerhetsorgan.
Brott som var av medelstor oro innefattade försäljning av varor och tjänster som bedrägligt märkts som "AI", som säkerhetskontroll och riktad reklam. Dessa skulle vara lätta att uppnå, med potentiellt stora vinster.
Brott av låg oro inkluderade inbrottsrobotar – små robotar som användes för att ta sig in i fastigheter genom åtkomstpunkter som brevlådor eller kattluckor – som bedömdes vara lätta att besegra, till exempel genom brevlådeburar, och AI-assisterad stalking, som, även om det är extremt skadligt för individer, kunde inte fungera i skala.
Första författaren Dr. Matthew Caldwell (UCL Computer Science) sa:"Människor bedriver nu stora delar av sina liv online och deras onlineaktivitet kan skapa och bryta rykten. En sådan onlinemiljö, där data är egendom och informationsmakt, är idealiskt lämpad för exploatering av AI-baserad kriminell verksamhet.
"Till skillnad från många traditionella brott, brott i den digitala sfären kan enkelt delas, upprepade, och till och med sålt, möjliggöra marknadsföring av brottslig teknik och att kriminalitet tillhandahålls som en tjänst. Detta innebär att brottslingar kanske kan lägga ut de mer utmanande aspekterna av deras AI-baserade brottslighet på entreprenad."
Professor Shane Johnson, Direktör för Dawes Center for Future Crimes vid UCL, som finansierade studien, sa:"Vi lever i en ständigt föränderlig värld som skapar nya möjligheter - bra och dåliga. Som sådan, det är absolut nödvändigt att vi förutser framtida brottshot så att beslutsfattare och andra intressenter med kompetens att agera kan göra det innan nya "brottsskördar" inträffar. Den här rapporten är den första i en serie som kommer att identifiera framtida brottshot i samband med ny och framväxande teknik och vad vi kan göra åt dem."