重磅!谷歌新AI演算法可重現大腦結構,自動追蹤繪製神經元
葯明康德AI/報道
今日,谷歌的研究人員發表了一項研究,他們和馬克斯普朗克神經生物學研究所(Max Planck Institute of Neurobiology)的科學家們一起,成功訓練出了一個遞歸神經網路,可以自動映射大腦的神經元結構並構造神經元和突觸的3D模型,從而幫助進行連接組學領域的研究。該研究結果發表在了《Nature Methods》上。
本文來源:葯明康德AI
連接組學主要研究神經系統中對神經元網路結構的映射。人類的大腦中包含約860億個神經元,並通過約100萬億個突觸進行連接。因此,即使對一立方毫米的組織進行成像,也能產生高達1000多TB的數據。然而,由於數據量太過龐大,且結構過於複雜,目前還無法做到對其進行自動分析。而谷歌的科學家們進行的這項新研究或許可以幫助解決這一難題。
雖然過去也有一些類似的演算法能夠對神經元網路進行追蹤和映射,但是在還原單一神經元的真實形態時會受到周圍數據和其他神經元的影響。想要完成這一過程的話,神經科學家必須觀察神經元網路圖像,將神經元進行分層,並且手動識別出每一個神經元細胞,從而讓計算機構建出其3D模型。據估計,就算只對僅一立方毫米的圖像進行識別,都可能需要花費10萬小時之久。同時,研究人員還需要花費7天左右的時間,來訓練出能夠構建3D模型的演算法。這一過程實在是非常耗時。
而此次谷歌團隊開發的演算法突破在於將上述過程完全自動化。研究人員使用邊緣探測演算法來確定神經元的邊界,同時使用遞歸卷積神經網路,來將圖像中和神經元相關的像素集中到一起並不斷對該區域進行填充,神經網路會預測哪些像素與初始像素屬於同一個物體。
GIF
▲圖中黃色的圓點為當前區域的中心,隨著演算法不斷迭代,黃點在當前區域不斷擴大藍色分割區域的範圍(圖片來源:Google AI Research Blog)
為了追蹤演算法的準確性,研究人員提出了一個名為「預期運行長度」(ERL)的概念,即在大腦的3D圖像中,給定一個隨機神經元上的隨機點,預測演算法在出錯之前追蹤一個神經元的最長距離。研究人員表示,在100萬立方微米大小的斑胸草雀大腦圖像中,新演算法的表現明顯優於以前的演算法。
GIF
▲演算法對斑胸草雀大腦中的單一神經元進行追蹤的過程示意圖(圖片來源:Google AI Research Blog)
「這項研究帶來的影響在於我們能夠完成的神經科學研究數量,」 谷歌研究人員、該研究的負責人之一Viren Jain博士表示:「歷史上的神經科學家從沒能從全面的角度,來研究大腦中神經元的實際模式。」研究人員表示,該研究和之前的深度學習技術相比,準確度「提升了一個數量級」。
研究人員計劃在未來繼續完善這套系統,從而全面實現突出解析度的自動化進程,並為其他研究項目做出貢獻。
參考資料:
[1] Improving Connectomics by an Order of Magnitude
[2] High-precision automated reconstruction of neurons with flood-filling networks
[3] Google is using AI to see inside the brain like never before
[4] Google researchers create AI that maps the brain』s neurons
TAG:葯明康德AI |