導(dǎo)讀 來自紐約格倫奧克斯 Zucker Hillside 醫(yī)院的醫(yī)學博士 Michael L Birnbaum 及其同事使用來自 89 名參與者的視聽數(shù)據(jù)(41 名患有精
來自紐約格倫奧克斯 Zucker Hillside 醫(yī)院的醫(yī)學博士 Michael L. Birnbaum 及其同事使用來自 89 名參與者的視聽數(shù)據(jù)(41 名患有精神分裂癥譜系障礙、21名雙相情感障礙患者和 27 名健康志愿者。
機器學習模型是基于從參與者訪談中提取的聲學和面部運動特征開發(fā)的。在五重交叉驗證中使用接收器操作特征曲線下面積 (AUROC) 評估模型性能。
研究人員發(fā)現(xiàn),在聚合面部和語音特征時,該模型成功區(qū)分了精神分裂癥譜系障礙和雙相情感障礙(AUROC,0.73)。男性最強的信號出現(xiàn)在面部動作單位,包括抬臉肌肉和抬下巴肌肉(AUROC,分別為 0.64 和 0.74)。對于女性來說,最強的信號是由聲音特征提供的,包括1 到 4 kHz頻帶中的能量和頻譜諧波(AUROC,分別為 0.80 和 0.78)。
對于男性和女性,唇角拉動肌肉信號可區(qū)分診斷(AUROC,分別為 0.61 和 0.62)。某些精神體征和癥狀被成功推斷,包括遲鈍的情感、意志力、缺乏聲音變化、社交性和無價值(AUROCs,分別為 0.81、0.72、0.71、0.63 和 0.61)。
“整合視聽數(shù)據(jù)可以改變心理健康臨床醫(yī)生診斷和監(jiān)測患者的方式,從而更快、更準確地識別疾病,并增強個性化的醫(yī)療方法,”作者寫道。
標簽:
免責聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!