Ett pilotprojekt från 2018 mellan Public Health Agency of Canada och Advanced Symbolics kommer att använda inlägg på sociala medier som en resurs för att förutsäga regionala självmordsfrekvenser. Upphovsman:Shutterstock
Självmord är ett växande folkhälsoproblem. I Kanada, 4, 000 liv dödas av självmord varje år - det är 10 liv per dag.
För var och en av dessa självmordsdöd, det finns fem personer på sjukhus efter självskada, 25 till 30 självmordsförsök och sju till tio personer som drabbats av varje tragedi, enligt analys av Public Health Agency of Canada.
Självmordstalen är högst bland vissa grupper - som ursprungsbefolkningar, invandrare och flyktingar, fångar och lesbiska, Gay, bisexuell, transpersoner, intersex (HBTI) gemenskap - och ökar.
Självmordets effekter märks i stor utsträckning. Toronto Transit Commission (TTC) rapporterade nyligen en ökning av självmord vid transitering i slutet av 2017, med åtta försök enbart i december, och en motsvarande ökning av stressledigheten från TTC -anställda, på grund av vägtullarna tog detta på personalen.
Kan artificiell intelligens (AI), eller intelligens som demonstreras av maskiner, kanske hjälpa till att förhindra dessa dödsfall?
Som forskare inom psykiatri, i Canadian Biomarker Integration Network for Depression, vi samlar in kliniska och biologiska data under behandlingsinsatser för personer med depression. Vi utforskar tidiga ledtrådar till förändringar i beteende och humörtillstånd med hjälp av mobil hälsoteknik.
Ett av våra mål är att identifiera tidiga förutsägare för återfall, och ökad risk för självmordsbeteende.
Här granskar vi andra lovande tillämpningar av AI för förebyggande av självmord, och uppmärksamma hindren inom detta område.
AI förutspår självmordsfrekvenser
Tidigt 2018, Public Health Agency of Canada tillkännagav ett pilotprojekt med Advanced Symbolics, ett Ottawa-baserat AI-företag som framgångsrikt förutspådde Brexit, Trumps presidentskap och resultaten av valet i Kanada 2015.
Projektet kommer att undersöka och förutsäga regionala självmordsfrekvenser genom att undersöka mönster i kanadensiska sociala medier, inklusive självmordsrelaterat innehåll, även om användaridentitet inte kommer att samlas in.
Programmet kommer inte att isolera högriskfall eller ingripa på individnivå. Istället, resultat kommer att användas för att informera om mental hälsoresursplanering.
Facebook larmar räddningspersonal
Under 2011, Facebook utvecklade ett manuellt självmordsrapporteringssystem där användare kunde ladda upp skärmdumpar av självmordsinnehåll för granskning.
År 2015, systemet tillät användare att "flagga" angående innehåll, vilket skulle få Facebook -personal att granska inlägget och svara med stödjande resurser.
På grund av verktygets framgång, Facebook har börjat utöka sina AI-funktioner för att automatiskt upptäcka självmordsrelaterat innehåll, och varna lokala räddningspersonal. Det finns också fler språkalternativ, och en förlängning till Instagram.
Chatbots ger terapi för depression
AI har använts inom hälso- och sjukvården sedan 1990 -talet för att förbättra upptäckt av sjukdomar och olika friskvårdsindex.
Inom psykisk hälsa, AI har förbättrat diagnosens hastighet och noggrannhet, och tillämpade "beslutsträd" för att vägleda behandlingsval.
Ett nytt tillvägagångssätt för "terapi" innefattar konversationsbots (eller chatbots) som är datorprogram som är utformade för att simulera människoliknande konversation med röst- eller textsvar.
Chatbots kan leverera psykologiska insatser för depression och ångest baserat på kognitiv beteendeterapi (KBT). Eftersom chatbots unikt svarar på presenterad dialog, de kan skräddarsy interventioner till en patients känslomässiga tillstånd och kliniska behov. Dessa modeller anses vara ganska användarvänliga, och de användaranpassade svaren från själva chatboten har granskats väl.
Liknande teknik läggs till smartphones för att tillåta röstassistenter, som iPhones Siri, att känna igen och svara på användarnas psykiska problem med lämplig information och stödjande resurser. Dock, denna teknik anses inte vara tillförlitlig och är fortfarande i sina inledande skeden. Andra smarttelefonapplikationer använder till och med spel för att förbättra mentalvård.
AI -teknik har också integrerats i självmordshantering för att förbättra patientvården på andra områden. AI-bedömningsverktyg har visat sig förutsäga kortsiktig självmordsrisk och göra behandlingsrekommendationer som är lika bra som kliniker. Verktygen är också välrenommerade av patienter.
AI -modeller förutsäger individuell risk
Nuvarande utvärdering och hantering av självmordsrisk är fortfarande mycket subjektiv. För att förbättra resultaten, mer objektiva AI -strategier behövs. Lovande tillämpningar inkluderar förutsägelser av självmordsrisk och klinisk hantering.
Självmord påverkas av en mängd olika psykosociala, biologisk, miljö, ekonomiska och kulturella faktorer. AI kan användas för att undersöka sambandet mellan dessa faktorer och självmordsresultat.
AI kan också modellera den kombinerade effekten av flera faktorer på självmord, och använda dessa modeller för att förutsäga individuell risk.
Som ett exempel, forskare från Vanderbilt University har nyligen designat en AI -modell som förutsäger självmordsrisk, använder elektroniska journaler, med 84 till 92 procent noggrannhet inom en vecka efter en självmordshändelse och 80 till 86 procent inom två år.
Framåt med försiktighet
När området för självmordsförebyggande med hjälp av artificiell intelligens utvecklas, Det finns flera potentiella hinder att ta itu med:
Övergripande, AI -teknik är här för att stanna inom många aspekter av hälso- och sjukvården, inklusive självmordsundersökning och intervention.
Denna artikel publicerades ursprungligen på The Conversation. Läs originalartikeln.