最近的進(jìn)展允許對(duì)自由活動(dòng)的動(dòng)物體內(nèi)的神經(jīng)元進(jìn)行成像。然而,為了解碼電路活動(dòng),必須通過(guò)計(jì)算來(lái)識(shí)別和跟蹤這些成像神經(jīng)元。當(dāng)大腦本身在生物體的柔性體內(nèi)移動(dòng)和變形時(shí),例如蠕蟲(chóng),這變得特別具有挑戰(zhàn)性。到目前為止,科學(xué)界還缺乏解決該問(wèn)題的工具。
現(xiàn)在,來(lái)自洛桑聯(lián)邦理工學(xué)院和哈佛大學(xué)的科學(xué)家團(tuán)隊(duì)開(kāi)發(fā)了一種開(kāi)創(chuàng)性的人工智能方法來(lái)跟蹤移動(dòng)和變形動(dòng)物體內(nèi)的神經(jīng)元。這項(xiàng)研究由洛桑聯(lián)邦理工學(xué)院基礎(chǔ)科學(xué)學(xué)院的 Sahand Jamal Rahi 領(lǐng)導(dǎo), 現(xiàn)已發(fā)表在《自然方法》雜志上。
新方法基于卷積神經(jīng)網(wǎng)絡(luò)(CNN),這是一種經(jīng)過(guò)訓(xùn)練可以識(shí)別和理解圖像模式的人工智能。這涉及到一個(gè)稱為“卷積”的過(guò)程,它一次查看圖片的一小部分(例如邊緣、顏色或形狀),然后將所有這些信息組合在一起以理解它并識(shí)別對(duì)象或圖案。
問(wèn)題是在動(dòng)物大腦的中識(shí)別和跟蹤神經(jīng)元;許多圖像必須手動(dòng)標(biāo)記,因?yàn)橛捎谠S多不同的身體變形,動(dòng)物隨著時(shí)間的推移顯得非常不同??紤]到動(dòng)物姿勢(shì)的多樣性,手動(dòng)生成足夠數(shù)量的注釋來(lái)訓(xùn)練 CNN 可能是一項(xiàng)艱巨的任務(wù)。
為了解決這個(gè)問(wèn)題,研究人員開(kāi)發(fā)了一種具有“定向增強(qiáng)”功能的增強(qiáng)型 CNN。這項(xiàng)創(chuàng)新技術(shù)可以從一組有限的手動(dòng)注釋中自動(dòng)合成可靠的注釋以供參考。結(jié)果是,CNN 有效地學(xué)習(xí)了大腦的內(nèi)部變形,然后利用它們?yōu)樾伦藙?shì)創(chuàng)建注釋,從而大大減少了手動(dòng)注釋和雙重檢查的需要。
標(biāo)簽:
免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!