人工智能將帶來精神保健領域的范式轉變。
近日,美國心理學會(American Psychological Association)發(fā)布了2024年12大心理學發(fā)展趨勢,其中指出心理學家正在研究生成式人工智能(generative artificial intelligence)對其工作的影響,并將帶頭把社會科學洞見引入生成式人工智能工具的創(chuàng)建和部署之中。
一項由提供衛(wèi)生政策信息的非政府組織KFF和CNN聯(lián)合發(fā)布的調查顯示,90%的公眾認為當今美國存在心理健康危機。阻礙人們獲得心理健康服務的因素包括成本高、心理健康保險未被健康保險所覆蓋、心理治療師數(shù)量不足、看心理醫(yī)生的羞恥心態(tài)等。針對這些問題,美國心理學會認為盡管聊天機器人在生理結構、生活經(jīng)驗和言辭習慣上與人類治療師存在差異,但它們有填補心理健康服務空白的潛力。福布斯雜志也指出人工智能將引發(fā)精神保健領域的范式轉變,提供克服各種障礙的潛在手段。
多維度的心理治療潛力
目前,多款心理健康應用程序的出現(xiàn)呼應著人工智能在心理治療層面的潛力。Wysa是一款于2016年推出的基于人工智能的“情感智能”App。它是一只袖珍企鵝形狀的聊天機器人,同時也是經(jīng)過臨床驗證的心理醫(yī)生,通過對話促進用戶積極的自我表達,幫助恢復心理彈性,主要應用于抑郁、焦慮以及慢性疼痛等相關癥狀。根據(jù)2022年的同行評議*,Wysa在多種心理療法中的效果與治療聯(lián)盟*相當,甚至更為出色,例如面對面認知行為療法、面對面團體治療和在線認知行為療法等。這表明AI心理醫(yī)生在一定程度上能夠與人類治療師相媲美。(*注:同行評議peer review是一種學術和科學研究領域的評估機制,由同行專業(yè)人士對研究的質量、方法、結論等進行評估以保證其科學性和可信度;治療聯(lián)盟therapeutic alliance是指心理健康專業(yè)人員與患者在心理治療任務與目標上的合作,以及情感上的聯(lián)結。)
基于人工智能的心理健康App Wysa
圖片來源:wysa.com
與Wysa類似,Youper也是一款由人工智能驅動的心理健康遠程治療App,用戶可以隨時隨地使用手機調節(jié)情緒,其干預效果經(jīng)過了斯坦福大學研究的證實。同時,這些心理健康應用程序還在不斷更新升級,以更好地應對各種心理問題。在新冠肺炎疫情期間,Woebot App推出了名為Perspectives的產(chǎn)品和專門處理悲傷和經(jīng)濟困難的主題,擴大了免費、及時和便利的心理健康服務的支持范圍。
事實上,自誕生起,人工智能聊天機器人便與心理學有著深厚淵源。上世紀60年代中期誕生的ELIZA被認為是世界上第一批聊天機器人,并以“心理治療師”的身份而聞名。它的設計初衷是在“DOCTOR”的腳本下模仿治療師,通過提出開放式問題并給予簡單回復來安撫患者。隨著人工智能技術的發(fā)展,技術與心理學的交叉繼續(xù)重塑著心理醫(yī)療保健的方式。英國新聞周報《經(jīng)濟學人》預測生成式人工智能將在2024年成為主流,醫(yī)療保健和金融服務等以數(shù)據(jù)為中心的公司將率先獲益。
與最早的AI心理治療師ELIZA的對話
圖片來源:wikipedia.org
目前,心理健康保健領域面臨著治療師資源不足的挑戰(zhàn)。根據(jù)世界衛(wèi)生組織2022年發(fā)布的《世界心理健康報告:改變所有人的心理健康》數(shù)據(jù)顯示,心理健康問題在全球范圍內普遍存在。每年,抑郁癥和焦慮癥造成的經(jīng)濟損失約為1萬億美元。而全球約有一半人口生活在心理醫(yī)生嚴重不足的國家,一名醫(yī)生至少需要為20萬人提供服務。
AI聊天機器人能夠一定程度上填補這一空缺,在心理健康服務的提供端與接收端都獲得支持。一方面,多款心理健康App在各年齡組的身心功能方面都取得了積極的臨床效果。Wysa因能夠減少老年人慢性病的疼痛與心理困擾獲得了美國食品藥品監(jiān)督管理局(FDA)的“突破性設備”認定。該公司的首席心理學家Smriti Joshi表示:“Wysa并不是為了代替心理學家和人類的工作,而是一種獲得精神支持的新方式?!?/p>
另一方面,人們可能對AI心理治療師有著較高的接受度。獨立醫(yī)療服務提供商Tebra的一項調查顯示,有25%的患者表示他們更愿意與聊天機器人交流,而不是參加傳統(tǒng)的心理療法。此外,80%曾使用過ChatGPT尋求心理健康建議的人認為它是常規(guī)治療的良好替代方案。這表明人們對于與AI心理醫(yī)生進行交流的態(tài)度可能較為積極。
圖片來源:apaservices.org
TEAM-CBT心理療法*的創(chuàng)始人David Burns表示,與人類治療師相比,AI治療師每周7天、每天24小時的服務擴大了心理治療的可及性。而軟件開發(fā)公司Binariks認為,AI治療師跨越了地理界限,使全球范圍內的心理健康資源更具可用性,促進了護理的公平化并為社會帶來更廣泛的公平。同時,對于容易產(chǎn)生社交焦慮或對看心理醫(yī)生有羞恥心態(tài)的人來說,線上交談可能沒有拿起電話或者面對面交流那樣令人抵觸。正如哈佛醫(yī)學院教授、馬薩諸塞州總醫(yī)院數(shù)字心理健康中心主任Sabine Wilhelm所言,人工智能進入心理領域真正美妙的地方在于,不同偏好的人們可以得到不同程度的支持。(*注:TEAM-CBT是“Team Cognitive Behavioral Therapy”的縮寫,翻譯為“團隊認知行為療法”,結合了認知療法和行為療法的原理并強調團隊合作,致力于促進個體更健康的情緒和生活體驗。)
不僅如此,AI心理醫(yī)生既可以作為獨立工具使用,也可融入傳統(tǒng)治療中。在心理學實踐中,AI心理醫(yī)生可以協(xié)助人類心理醫(yī)生自動化行政任務,進行新醫(yī)生培訓,作為教育工具傳播心理健康信息,并在例行檢查、輕度心理問題或生活困難疏導等方面發(fā)揮作用。人類心理醫(yī)生可以憑借同理心和情感聯(lián)結與患者動態(tài)互動,處理更復雜的問題。此外,Binariks公司認為人工智能可以處理大數(shù)據(jù),根據(jù)家族遺傳、個人病史、生活方式、治療反應等為患者制定個性化策略,還可與虛擬現(xiàn)實(VR)技術結合,提供身臨其境的創(chuàng)傷治療體驗,為心理治療領域帶來了更多可能性和創(chuàng)新。
圖片來源:Google DeepMind
風險與缺陷并存
美國市場數(shù)據(jù)分析公司CB Insights指出,2021年全球心理健康科技投資活動同比增長139%,而在其近期評選的2023年50家數(shù)字健康初創(chuàng)企業(yè)中有33家借助人工智能以增強其解決方案。隨著越來越多健康醫(yī)療企業(yè)入局人工智能領域,技術本身所攜帶的問題也引發(fā)更多憂慮,特別是在ChatGPT全面激發(fā)的AI熱潮后,人們在對科幻小說變?yōu)楝F(xiàn)實感到新鮮的同時,數(shù)據(jù)隱私、偏見歧視等問題也隨之成為熱門議題。
以大型語言模型聊天機器人(如ChatGPT)為代表的生成式人工智能是指具有學習文本、圖像、視頻等數(shù)據(jù)模型能力、并生成類似新數(shù)據(jù)的人工智能。由于“輸入-學習-輸出”的技術特性,生成式人工智能需要海量信息作為訓練數(shù)據(jù)。OpenAI公布的隱私政策中描述了ChatGPT的個人信息收集、使用和披露的情況,其中,收集的信息包括賬戶相關信息與設備數(shù)據(jù)、輸入內容文本與使用數(shù)據(jù)、通信信息與日志數(shù)據(jù)、社交媒體賬戶互動信息等,目前用戶有權利刪除、更正個人信息。Google推出的對話式AI工具Bard同樣承諾會使用自動化工具刪除個人信息,設置防護墻阻止Bard回復包含用戶個人信息的內容。
圖片來源:apa.org
但是對于人工智能的憂慮并未被隱私管理政策全然安撫。悉尼大學在一篇文章中將ChatGPT稱為“數(shù)據(jù)隱私的噩夢”。而波士頓咨詢集團人工智能倫理首席執(zhí)行官Steve Mills認為大多數(shù)公司對于這些工具的最大擔憂在于“無意中泄露的敏感信息”,有時用戶甚至開發(fā)人員都不會意識到隱藏的風險。他建議不要與聊天機器人分享任何不想與他人分享的東西。因此,在面對一些隱秘的心理問題時,AI心理醫(yī)生與人類心理醫(yī)生一樣,它們是否值得信任似乎都需要被再三琢磨。
2023年10月,美國一家非營利的在線情感支持聊天平臺Koko在人們不知情的情況下利用ChatGPT-3為約4000人提供了咨詢服務。該平臺實驗一經(jīng)披露便激起了強烈反對,被批評為不道德的、欺騙的。Koko創(chuàng)始人Robert Morris指出,包含ChatGPT-3參與的回答在評價上明顯優(yōu)于純粹由人類編寫的回答。然而,一旦人們意識到人工智能參與其中,評價的風向就改變了。
圖片來源:economist.com
不過,Morris也提到,由于缺乏同理心,虛擬的人工智能并非完美或獨一無二的解決方案。不是所有的數(shù)字心理健康服務的回答都是由人類共同編寫的,一些AI心理醫(yī)生采用機械、照本宣科的回應方式,難以治療較為嚴重的心理疾病。同時科學領域作家Elizabeth Svoboda認為,AI心理醫(yī)生可能受到算法偏見和數(shù)據(jù)偏見的影響,因為它們使用的自然語言處理算法建立在人類文本數(shù)據(jù)庫之上,這樣的訓練可能導致不同種族、性別或社會群體在與聊天機器人溝通時獲得不同結果。由于存在“算法黑箱”,軟件的開發(fā)者甚至難以解釋人工智能模型的決策過程,從而無法推知偏見是否存在。
德克薩斯大學奧斯汀分校的心理學家Adela Timmons建議,公司在應用程序開發(fā)及發(fā)布后的每個階段都應進行潛在數(shù)據(jù)偏見的例行評估,其中包括多樣化主題的臨床試驗。圣塔克拉拉大學的心理學家和倫理學家Thomas Plante認為,人工智能公司還需要向用戶更明確地說明治療機器人的能力和局限。聯(lián)合國人工智能咨詢機構發(fā)布的《臨時報告:為人類治理人工智能》呼吁國際社會更加緊密地跟進人工智能的開發(fā)和推廣,敦促AI開發(fā)者“將人類置于利潤之上”,倡導以人為本開發(fā)和使用生成式人工智能。
聯(lián)合國的人工智能咨詢機構頁面(網(wǎng)站截圖)
同樣,心理學本身也在塑造著人工智能的未來。美國心理學會指出,科技領導者已經(jīng)將注意力轉向心理研究,以深入了解人類如何安全地與人工智能、社交媒體和游戲等創(chuàng)新技術互動,建立可持續(xù)的關系。臨床醫(yī)生、華盛頓大學醫(yī)學院的兼職教授David Luxton認為,心理學領域在公眾對人工智能的信任方面發(fā)揮著相當重要的作用。數(shù)字健康干預方法涵蓋各種方式,包含從改善睡眠的健康應用程序到針對抑郁癥等病癥的全面臨床治療。心理學的介入將有利于改進人工智能在倫理方面的問題,確??茖W真正促進福祉的發(fā)展。
回顧上世紀60年代,ELIZA的發(fā)明者、計算機科學家、麻省理工學院教授Joseph Weizenbaum驚訝地發(fā)現(xiàn)許多用戶,包括他的學生與秘書在內,會花費數(shù)小時沉浸在與ELIZA的循環(huán)對話中。這是因為人們傾向于通過“擬人化”心理傾向,將人的特質投射到無生命物體上,將聊天機器人視為有意識的個體。在某種程度上,人們尋求心理醫(yī)生幫助的本質在于從交流中獲得更好的情感體驗,通過專業(yè)的治療感到被理解、被支持。在未來發(fā)展中,AI心理醫(yī)生有望滿足這一需求,成為良好的傾聽與建議對象。