銀行賬戶年檢時間在每年( )月( )日前(銀行賬戶年檢) 無道具晨會互動小游戲(無道具晨會互動小游戲室內) 黃昏英雄傳攻略(黃昏英雄傳2.5攻略) 雙面膠怎么快速去除膠水(雙面膠怎么快速去除) 蘋果醋解酒么(蘋果醋為什么可以解酒) 怎樣關閉電腦殺毒軟件和防火墻(怎樣關閉電腦殺毒軟件和防火墻聯想) 莫斯科氣溫和我國哪里差不多(莫斯科氣溫) 魔獸世界:探索艾薩拉(魔獸世界 艾薩拉) hopes是什么意思(hope是什么意思) 孕婦可以吃杏仁嗎?(孕婦可以吃杏仁嗎?孕中期) 8k紙有多大比A3大多少(8k紙有多大) 武漢藝術生文化課到底該如何學習?(武漢藝術生文化課培優(yōu)) 節(jié)奏大師攻略四個技巧刷高分(節(jié)奏大師怎樣玩才高分) 受涼感冒是風熱還是風寒(受涼) 地球的南極北極都是冰天雪地那月球的兩極呢(北極和南極都是冰天雪地) 蛇蛇大作戰(zhàn)電腦版攻略(蛇蛇大作戰(zhàn)游戲下載) 什么是啞口套和窗套(什么是啞口) WIN10電流麥解決方法(win10電腦電流麥怎么解決方法) 平時多吃什么食物補腎效果最好(平時多吃什么食物補腎效果最好女性) 哈倫褲適合什么年齡穿(哈倫褲適合什么人穿) 魔獸世界前夕稀有精英位置一覽 看完就知道了(魔獸世界9.0前夕稀有精英位置與掉落) 如何實現創(chuàng)業(yè)成功(如何實現創(chuàng)業(yè)成功發(fā)展) QQ空間如何添加大圖模塊(qq空間怎么添加圖片模塊) 夢幻西游挖礦賺錢(挖礦賺錢) 剖腹產的好處(剖腹產的好處有哪些) 如圖已知ab為圓o的直徑弦cd⊥ab垂足為h(如圖 已知AB是圓O的直徑 弦CD垂直AB 垂足為H) 深圳上下沙租房攻略(深圳下沙哪里租房便宜) 被2345和hao123主頁篡改修復方法 2015(2345是怎樣篡改主頁的以及如何徹底刪除) nba歷史得分榜百度一下(nba歷史得分榜百度百科) 如何防霧霾 什么口罩防霧霾效果好(什么口罩可以防霾) 制作手工的材料有哪些(制作手工的材料有哪些簡單) 天使等級 北京商標注冊流程圖(北京商標注冊流程圖解析) Galaxy S4 發(fā)布 全面解析新旗艦 圖(galaxy s4 上市時間) 土大黃根主要治什么?。ㄍ链簏S與大黃的區(qū)別) vivo手機怎么定位(vivo手機怎么定位查找) dnf更新失敗怎么辦 安裝文件寫入失敗怎么辦(為什么dnf更新寫入失敗) 隔玻璃曬太陽能起作用(隔著玻璃曬太陽能補鈣) steam國服怎么玩apex(steam國服怎么玩最終幻想14) 納雍縣是哪個市 蜂蜜可以放冰箱嗎(蜂蜜可以放冰箱嗎可以放多久) 電腦怎么連熱點(聯想電腦怎么連熱點) 石器時代寵物攻略(石器時代寵物大全) 經濟管理出版社地址(經濟管理出版社) 芒果tv怎么看湖南衛(wèi)視(芒果tv怎么看湖南衛(wèi)視回放) iPhone13如何在微店購物?(iphone13直營店可以直接買到嗎) 淘寶海外版叫什么(淘寶海外版) 幽門螺桿菌抗體(幽門螺桿菌抗體偏高是怎么回事) iOS7.1.1固件下載(ios7.0.4固件下載) 紙的來源視頻(紙的來源)
您的位置:首頁 >醫(yī)學前沿 >

如何研究強迫癥周期

導讀 奈良科學技術研究所的研究人員基于強化學習原理開發(fā)了一種新的強迫癥模型。該模型可能會導致對強迫癥和相關疾病的更好治療奈良科學技術研究

奈良科學技術研究所的研究人員基于強化學習原理開發(fā)了一種新的強迫癥模型。該模型可能會導致對強迫癥和相關疾病的更好治療

奈良科學技術研究所 (NAIST)、國際先進電信研究所和多摩川大學的科學家已經證明,強迫癥(OCD) 可以理解為強化和懲罰之間學習不平衡的結果。

在對其理論模型的經驗測試的基礎上,他們表明,將當前結果與過去行為聯系起來的大腦計算不對稱會導致行為紊亂。具體來說,當過去行為的記憶跟蹤信號因好結果和壞結果而衰減不同時,就會發(fā)生這種情況。在這種情況下,“好”表示結果比預期好,“壞”表示結果比預期差。這項工作有助于解釋強迫癥是如何發(fā)展的。

強迫癥是一種涉及焦慮的精神疾病,其特征是侵入性和重復性的想法,稱為強迫癥,再加上某些重復的行為,稱為強迫癥。強迫癥患者即使知道強迫觀念或強迫行為是不合理的,也常常感到無法改變行為。在嚴重的情況下,這些可能會使人無法過正常的生活。強迫行為,例如過度洗手或在離開家之前反復檢查門是否鎖好,是試圖暫時緩解強迫癥引起的焦慮。然而,迄今為止,人們對強化強迫觀念和強迫循環(huán)的方式還不是很清楚。

現在,由 NAIST 的研究人員領導的一個團隊使用強化學習理論來模擬與強迫癥相關的無序循環(huán)。在這個框架中,比預期更好的結果變得更有可能(正預測誤差),而比預期更差的結果被抑制(負預測誤差)。在強化學習的實施中,考慮延遲以及正/負預測誤差也很重要。一般來說,某個選擇的結果是在一定的延遲之后才可用的。因此,在一定的時間范圍內,應該將強化和懲罰分配給最近的選擇。這稱為信用分配,在強化學習理論中作為記憶軌跡實現。

理想情況下,對于正預測誤差和負預測誤差,過去動作的記憶跟蹤信號以相同的速度衰減。然而,這在離散神經系統(tǒng)中無法完全實現。通過模擬,NAIST 科學家發(fā)現,當與負面預測錯誤(

標簽:

免責聲明:本文由用戶上傳,如有侵權請聯系刪除!

最新文章