當前位置:
首頁 > 科技 > 紐約大學以神經網路改進放射科醫師判讀乳癌精確度

紐約大學以神經網路改進放射科醫師判讀乳癌精確度

紐約大學訓練深度卷積神經網路(CNN)用於判讀乳房X光片,找出乳癌病徵,並期望將機器學習模型偵測集成進乳癌篩檢流程,能提高篩檢效率,而實驗也證實,機器學習模型預測乳癌的精確度已經高於單位放射科醫師,而且在篩檢流程中,同時結合醫師的專業和模型預測,將能有效減少醫生人力並提升判讀精確度。

研究人員提到,乳癌的研究主要遭遇兩項困難,第一是訓練數據集不足,另一個則是乳房攝影的圖像解析度過大。由於採用深度學習方法的計算機視覺技術,需要大量的訓練圖像數據集,數據集的多寡會直接影響模型預測的精確度,而通常一般的計算機視覺應用,會使用擁有1,400萬張圖片的ImageNet數據集,作為訓練數據。

不過,可用的公共乳癌數據集非常少,像是DDSM(Digital Database for Screening Mammography)數據集僅有一萬張圖像,因此為了要解決這個問題,紐約大學自己構建了乳癌篩檢數據集,這是擁有大量乳房篩檢X光片的龐大數據集,總共包含超過一百萬張乳房X光照片。

另一個問題便是乳房X光照片的解析度非常大,而且也必須要這麼高的圖片解析度,模型才能良好地預測結果,但因為這些照片比起像是ImageNet這類數據集里的圖像解析度還要高上許多,礙於GPU內存的限制,研究團隊必須要調整模型架構,他們創建了與一般ImageNet模型相比,相對較淺的22層ResNet模型。由於完整的乳房X光照片,是由4張乳房X光照片組成,因此研究團隊也就同時為篩檢應用4個ResNet模型。

研究人員解釋,使用較淺的模型架構,意味著模型可能無法偵測到較小且局部的癌症組織,因此為彌補不足,他們也同時訓練一個完整50層的ResNet-50模型,但僅用來分類圖片補丁(Patch),而非整個乳房X光照片。採樣的圖片補丁大小為224×224像素,這個補丁會在完整的圖片上滑動,以判斷補丁中是否存在病變,藉此搭建出癌症熱點圖。結合局部補丁與全局預測方法,該模型能偵測乳房X光照片中全局與局部特徵。

研究團隊對模型進行多個實驗,該乳癌預測模型判讀精確度比單個放射科醫生還要高,而當一位放射科醫生結合使用乳癌預測模型,則判斷的精確度會比多位放射科醫生的綜合判讀精確度還高,當多位放射科醫生的判讀加上乳癌預測模型,則精確度就更高了。總體而言,深度神經網路能有效的減輕放射科醫生判讀乳房X光片的負擔,且能明顯提高精確度。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!


請您繼續閱讀更多來自 十輪網 的精彩文章:

AWS支持外部身份系統以用戶屬性訪問資源
充電時讓手機變Assistant顯示屏幕的「環境模式」