谷歌Cell論文:深度學習模型預測熒光位置
Root 發自 凹非寺
量子位 出品 | 公眾號 QbitAI
在生物醫學的研究里,顯微鏡可以幫助科學家們觀察定位細胞水平或分子水平的物質。
常用的相差顯微鏡觀察法,是從生物組織的一側給光,對細胞損傷小,且材料準備過程非常簡單。
可如果想要知道細胞核確切的位置,或者分析神經元樹突的數量或要看細胞是死是活,此前的辦法是必須要結合免疫熒游標記法,然後用熒光顯微鏡觀察。
如果不用熒游標記,就能看懂小圖1-4分別代表啥的話,算你厲害
藍色,細胞核;紅色,軸突;綠色,樹突
1,神經元聚團;2,突觸;3,軸突;4,只剩兩神經元活著,左下那個掛了(對比上個小圖4看)
但做過免疫熒游標記的同學都知道。拿到一張好的熒光照片,一路上有多麼不容易。
實驗材料養大養好拿去切片這些體力上的苦就不說了。
上一抗二抗還有封閉,每一步都是坑。即使十萬分小心走完了前面所有的步驟,到最後上熒光顯微鏡的時候還得面臨光漂白的囧況。
這還只是固定的片子。熒游標記還有個不可忽視的缺陷,染料有毒。活體細胞上了熒光之後活不了多久,所以那些時間跨度很長的生理實驗就別想了。
怎麼樣清晰定位目標物,同時還能繞開免疫熒游標記的缺點呢?
魚和熊掌可以兼得
今天,谷歌科學加速團隊(Google Accelerated Science team)在Cell上發表了一篇In Silico Labeling: Predicting Fluorescent Labels in Unlabeled Images論文。樣本無需熒光染色,用深度學習模型就可預測出目標物的位置。
不僅省去了免疫熒光繁瑣的過程,還不用擔心背景噪音、不同熒光染料串色的問題。剛切完腦片(或培養好的其他組織細胞),就可以直接放相差顯微鏡上拍片了,剩下的交給演算法模型就好。
模型訓練及工作原理
和所有模型一樣,這個預測熒游標記的模型需要獲得靠譜的訓練集。
因此,谷歌科學加速團隊聯合了哈佛Rubin實驗室以及格拉德斯通研究所(Gladstone Institutes),收集了三種細胞(多功能幹細胞誘導的人類運動神經元、人類乳腺癌細胞、大鼠大腦皮層組織培養細胞)在三種光學顯微鏡(明場、相差、微分干涉相差)下的圖像數據。
下圖頂行的細胞三維信息,重構自二維圖像數據的疊影。不同的level表示不同的熒游標記物,馬賽克的位置表明該實驗樣品沒有進行此類熒游標記。
經過此數據集(圖1A)的訓練,模型(圖1C)就可以直接把沒有熒游標記的相差顯微圖像(圖1 D)處理成帶熒游標記的圖像了,預測出特定結構或蛋白的位置。
這個預測標記演算法還具備遷移學習能力,只要少量的訓練數據,馬上可以獲得新型熒游標記的預測能力。深受免疫熒游標記之苦的胖友,可以前往GitHub獲取該模型的代碼和全部數據集。
這下細胞分子生物學出結果發paper的效率要飛起來了。
最後,附論文地址:
http://www.cell.com/cell/fulltext/S0092-8674(18)30364-730364-7)
及熒游標記預測模型代碼:
https://github.com/google/in-silico-labeling
你可能感興趣
—完—
誠摯招聘
量子位正在招募編輯/記者,工作地點在北京中關村。期待有才氣、有熱情的同學加入我們!相關細節,請在量子位公眾號(QbitAI)對話界面,回復「招聘」兩個字。
※AI能有多污?要看你喂它吃什麼
※「文本轉圖」效果優化可多一步:物體關係描述
TAG:量子位 |