《自然》子刊:里程碑!首個臨床級病理AI誕生,4萬餘真實世界病理切片準確率超98%,用於篩查可減少醫生75%工作量丨科學大發現
來了!近150年病理學的最大突破,首個臨床級別的AI系統終於來了!
今日,紀念斯隆·凱特琳癌症研究中心(MSKCC)研究者在《自然·醫學》發文[1],數據科學家Thomas Fuchs團隊公布基於15000名癌症患者的4萬餘張數字化病理切片的新AI系統,對前列腺癌、基底細胞癌和腋窩淋巴結轉移乳腺癌的測試曲線下面積(AUC)均高於0.98。
厲害的是,該系統在訓練過程中使用的是來自常規病理報告的數據,並未經過事先處理,也不需病理專家對切片手動標註,因而可以納入前所未有的龐大數據,對臨床上形態多樣的腫瘤病理也有了更高的識別度。
據研究者估計,如果該系統投入臨床使用,在保證100%靈敏度的條件下,能夠減少病理醫生65-75%的無謂讀片工作,大大加速診療進程!
真是厲害了!
通訊作者Thomas Fuchs
圖源 | MSKCC
病理醫生讀片、診斷可以說是現代癌症診療的基礎。然而一個世紀以來,病理醫生們的工作模式卻沒有太大的進展[2,3],直到近年才出現了數字化病理切片以及相應人工智慧技術。
但是,這並不意味著病理診斷走進數字時代。
有個段子講,人工智慧的背後都是人工。看似美好的病理AI系統,背後也是精挑細選的清晰切片,頂級病理專家們一個像素一個像素手動標註。
病理專家有多少?手動標註的工作量又是多大?有限的訓練素材大大限制了AI的能力。
而且,臨床上腫瘤的形態千變萬化,病理切片製備過程也可能出錯,切片狀態不可能永遠完美,AI真上了臨床能有多大用武之地也是個問號。
乾脆野一點兒,直接把真實世界數據丟給AI行嗎?
AI將大大加速臨床診療進程
MSKCC的研究者們就這麼幹了。他們調用了3個數據集,共有來自44個國家和地區的15187名癌症患者的44732個病理切片信息,包括24859個前列腺癌切片、9962個基底細胞癌切片、9894個淋巴結轉移乳腺癌切片,與任何一個同類研究相比數據量都要大上一級不止。
當然,這些切片完全沒有經過處理,病理報告里是什麼樣就原樣拿來用,當然也包括了一些常見的技術問題,比如說氣泡、不規則的形狀、固定得不好、組織不平整等等,也有數字化過程導致的圖像模糊等。
訓練方法
選的癌種也有說法。
前列腺癌是名列前茅的殺手癌,而且多個研究表明,前列腺癌病理學觀察比較難,病變所佔面積常<1%,不同的人或者同個人不同次都可能產生不同結果[4],精準識片意義很大;基底細胞癌雖然並不太致命,但它是美國最常見的癌症,利用AI大批量篩查降低病理醫生的工作量、加速臨床效率也是很重要的。
新的AI系統基於多實例學習(MIL)和遞歸神經網路(RNN),以弱監督學習的方式在不同大小的數據集中進行了訓練。根據研究者的觀察,一般需要至少1萬張切片才能夠獲得良好的性能,而且更大的數據集仍舊能夠帶來進一步的改善。
有趣的是,在不同的解析度下,AI對不同癌種的識別敏感性是不同的,缺陷也是互補的。比如說前列腺癌的20x數據假陰性表現更好,5x數據假陽性表現更好。
AI識別的陽性、陰性和可疑切片
綜合多尺度結果,前列腺癌、基底細胞癌和淋巴結轉移乳腺癌三個癌種的AUC分別達到0.991、0.989、0.965!
研究者也對產生的識別誤差進行了分析,主要原因還是在於掃描的切片與病理報告中的診斷並不完全一致、切片本身的質量問題等。經過矯正之後,最終的AUC均可以達到0.98以上。
識別誤差的類型和數量
另外,研究者認為新的掃描技術也可能帶來誤差,比如不同的解析度和色彩。這類問題可以通過混合數據訓練或針對新設備微調參數解決。
新AI也在來自MSKCC的12000個切片數據集中進行了驗證,最終結果AUC下降了6%。不過下降的誤差主要體現在對新數據的特異性上,敏感性依舊很高。
研究者還對比了新AI和強監督學習的AI模型,其中包括CAMELYON16、擁有目前最大注釋數據集的AI模型。研究者運行原數據得出的AUC為0.930,與原論文中的0.925相近[5]。但是套用新AI的數據集之後,AUC只有0.727,下降了20%以上。
將新AI與CAMELYON16的數據集交叉訓練,均是新AI表現更佳。可見縱使精細標註的切片也不足以應對臨床上複雜的情況,數據量大才是王道。
交叉訓練結果均為新AI更佳
在這種新AI的幫助下,病理醫生的工作量將大大減少。
醫生們再也不需要大海撈針一般從病理切片中尋找極其微小的病變,只要等待電腦篩查、報告可疑結果就能夠快速完成診斷。特別是針對前列腺癌,醫生能夠足足少看75%切片!
論文通訊作者Fuchs博士是癌症AI診療公司Paige的聯合創始人,據悉該公司已有相關產品報批FDA突破性設備認證。希望我們能夠趕快在臨床上見到這種新AI 大展身手。
編輯神叨叨
看見首個我就很激動
病理醫生們有沒有一種以後就能喝茶看報紙的錯覺
參考資料:
[1]https://www.nature.com/articles/s41591-019-0508-1
[2]Ball, C. S. The early history of the compound microscope. Bios 37, 51–60 (1966).
[3] Hajdu, S. I. Microscopic contributions of pioneer pathologists. Ann. Clin. Lab. Sci. 41, 201–206 (2011).
[4]Ozdamar, S. O. et al. Intraobserver and interobserver reproducibility of WHO and Gleason histologic grading systems in prostatic adenocarcinomas. Int. Urol. Nephrol. 28, 73–77 (1996).
[5]Wang, D., Khosla, A., Gargeya, R., Irshad, H. & Beck, A. H. Deep learning for identifying metastatic breast cancer. Preprint at https://arxiv.org/abs/1606.05718 (2016).
[6]https://www.tmcnet.com/usubmit/-paige-announces-worlds-first-clinical-grade-artificial-intelligence-/2019/07/15/8986238.htm
[7]https://www.mskcc.org/blog/researchers-report-milestone-use-artificial-intelligence-pathology
本文作者 | 代絲雨
※《自然》:神經幹細胞,你真是老糊塗了!科學家發現,年老大腦的神經幹細胞竟會主動招募殺傷性T細胞進入大腦,干擾自己增殖丨科學大發現
※《自然》子刊:破解「最毒」乳腺癌隱身之謎!華人科學家發現,三陰乳腺癌竟能截斷抗原出路,難怪免疫治療都沒辦法 | 科學大發現
TAG:奇點網 |