自殺是公眾健康日益關注的問題。在加拿大,每年有4,000人因自殺而 死亡,即每天10條生命。
根據(jù)加拿大公共衛(wèi)生署的分析,在每一次自殺式死亡中,有五人因自??殘而住院,有25至30例自殺未遂,每宗悲劇影響了7至10人。
在某些群體中,例如土著人民,移民和難民,囚犯以及女同性戀,男同性戀,雙性戀,變性者,雙性戀(LGBTI)社區(qū)中的自殺率最高, 并且還在上升。
自殺的影響廣為人知。多倫多運輸委員會(TTC)最近報告稱,截至2017年底,自殺人數(shù)有所增加,僅在12月就有8起自殺企圖,由于這種行為給員??工造成了巨大損失,TTC員工的壓力休假率也相應增加。
人工智能(AI)或機器展示的智能是否可能有助于防止這些死亡?
作為精神病學的研究人員,在加拿大抑郁癥生物標志物整合網(wǎng)絡中,我們正在為重度抑郁癥患者進行干預期間收集臨床和生物學數(shù)據(jù)。我們正在探索使用移動健康技術改變行為和情緒狀態(tài)的早期線索。
我們的目標之一是確定早期復發(fā)的預測指標,并增加自殺行為的風險。
在這里,我們回顧了AI在預防自殺方面的其他有希望的應用,并提請注意該領域的障礙。
人工智能預測自殺率
2018年初,加拿大公共衛(wèi)生局宣布了與渥太華AI公司Advanced Symbolics的試點項目,該項目成功預測了英國退歐,特朗普的任期和2015年加拿大大選的結果。
該項目將通過檢查包括自殺相關內(nèi)容在內(nèi)的加拿大社交媒體帖子中的模式來研究和預測區(qū)域自殺率,盡管不會收集用戶身份。
該程序不會隔離高風險案例,也不會干預個人。取而代之的是,研究結果將用于指導精神衛(wèi)生資源計劃。
Facebook提醒緊急響應者
2011年,F(xiàn)acebook開發(fā)了一個手動的自殺報告系統(tǒng),用戶可以在其中上傳自殺內(nèi)容的屏幕截圖以供審核。
在2015年,該系統(tǒng)允許用戶“標記”有關內(nèi)容,這將促使Facebook員工審核該帖子并以支持性資源進行回復。
由于該工具的成功,F(xiàn)acebook已開始擴展其AI功能,以自動檢測與自殺相關的內(nèi)容,并向本地緊急響應者發(fā)出警報。還有更多的語言選項,以及對Instagram的擴展。
聊天機器人為抑郁癥提供治療
自1990年代以來,人工智能已用于醫(yī)療保健領域,以改善疾病檢測和各種健康指數(shù)。
在心理健康方面,人工智能提高了診斷的速度和準確性,并應用“決策樹”指導治療選擇。
一種新的“治療”方法涉及會話機器人(或聊天機器人),它們是計算機程序,旨在使用語音或文本響應來模擬類似于人的會話。
聊天機器人可以基于認知行為療法(CBT)進行針對抑郁和焦慮的心理干預。由于聊天機器人獨特地響應所呈現(xiàn)的對話,因此他們可以根據(jù)患者的情緒狀態(tài)和臨床需求量身定制干預措施。這些模型被認為是非常用戶友好的,并且聊天機器人本身的用戶自適應響應已經(jīng)得到了很好的審查。
類似的技術正在被添加到智能手機中,以使語音助手(如iPhone的Siri)能夠通過適當?shù)男畔⒑椭С中再Y源來識別和響應用戶的心理健康問題。但是,該技術不被認為是可靠的,并且仍處于初步階段。其他智能手機應用程序甚至使用游戲來改善心理保健教育。
AI技術也已集成到自殺管理中,以改善其他領域的患者護理。已顯示AI評估工具可預測短期自殺風險并提出與臨床醫(yī)生一樣好的治療建議。這些工具也受到患者的好評。
人工智能模型預測個人風險
當前對自殺風險的評估和管理仍然高度主觀。為了改善結果,需要更客觀的AI策略。有希望的應用包括自殺風險預測和臨床管理。
自殺受各種社會心理,生物學,環(huán)境,經(jīng)濟和文化因素的影響。人工智能可以用來探索這些因素與自殺結果之間的關聯(lián)。
AI還可以對多種因素對自殺的綜合影響進行建模,并使用這些模型來預測個人風險。
例如,范德比爾特大學的研究人員最近設計了一個AI模型,該模型使用電子健康記錄來預測自殺風險,自殺事件發(fā)生后一周內(nèi)的準確度為84%至92%,兩年內(nèi)準確率為80%至86%。
謹慎前進
隨著使用人工智能預防自殺領域的發(fā)展,有幾個潛在的障礙需要解決:
隱私:保護性立法將需要擴展到包括與AI相關的風險,特別是機密健康信息的收集,存儲,轉移和使用。
準確性:在將某人標記為高(相對于低)風險之前,需要確認AI在正確確定自殺意圖方面的準確性,特別是在系統(tǒng)偏見或錯誤方面。
安全性:確保AI程序能夠對自殺用戶做出適當反應,以免惡化他們的情緒狀態(tài)或意外促進自殺計劃至關重要。
責任:需要有關如何正確處理AI技術標記的高風險案例以及AI風險評估與臨床意見不同時該怎么辦的響應協(xié)議。
缺乏理解:關鍵用戶之間在AI技術如何適合自殺預防方面存在知識鴻溝。為了解決這個問題,需要對這一主題進行更多的教育。
總體而言,人工智能技術在醫(yī)療保健的許多方面都存在,包括自殺篩查和干預措施交付。