當前位置:
首頁 > 最新 > 人工智慧重設醫療保健面臨的六大挑戰

人工智慧重設醫療保健面臨的六大挑戰

人工智慧在醫療保健領域的變革力量

我們已經寫了大量關於人工智慧在重新設計醫療保健方面的潛力。 如何幫助醫療專業人員設計治療計劃,並為每個病人找到最適合的方法。 它如何能夠幫助重複單調的任務,所以醫生和護士可以集中精力在實際工作上,而不是像官僚機構那樣。 通過什麼方法,人工智慧可以優先考慮醫生收件箱中的電子郵件,或者在找到最新和最相關的科學研究的幫助下保持最新。 它的變革力量如何使它像聽診器一樣重要,而聽診器是19世紀出現的現代醫學的象徵。

在幾家醫院中已經有很好的例子: 谷歌 DeepMind 與英國國家衛生服務部門建立了合作關係,以改善用數字化解決方案提供醫療服務的過程。 2017年6月,DeepMind 將其服務擴展至另一家英國醫院——首先是數據管理應用 streammind。 作為哈特里中心(Hartree Centre)經營的科技設施委員會項目的一部分,IBM Watson 被用於 Alder Hey Children"s Hospital。 我們詢問了醫生使用該技術的第一次經驗,並概述了越來越多的公司,這些公司正在廣泛投資於技術的發展,認識到它在醫療保健方面的變革能力。

然而,我們必須面對的問題是,我們如何將人工智慧的巨大潛力轉化為日常生活。 在第一步之後——儘可能了解人工智慧在醫療領域的可能性——之後,我們應該更清楚地了解這些障礙。

01

人工智慧的技術局限性

"人工智慧"一詞在許多情況下可能具有誤導性,因為它意味著比目前更發達的技術。 目前的技術含義各種機器學習方法最多能夠在各個領域達到人工的狹義智能。 然而,這正以驚人的速度發展。 這些狹義的智能程序在特定的任務中擊敗了人類,比如 IBM 的超級計算機深藍贏得國際象棋,但與人類的世界冠軍不同,這些演算法也不能駕駛汽車或創造藝術。 解決這些其他任務需要建立其他狹隘的計劃,這是一個巨大的挑戰。 然而,計算機理解圖像和視頻的能力有了驚人的增長——一個叫做計算機視覺的領域——以及自然語言處理框架中的文本。 前者現在在醫療保健領域得到廣泛應用,例如在醫學成像領域。

米歇爾 · 周在 IBM 研究公司和 IBM Watson 集團工作了十多年,後來成為了 Juji 的聯合創始人,這是一個情緒分析的開始,在這裡將《紐約客》分類為識別智能,同時也是人工智慧的第一階段。 這意味著在更強大的計算機上運行的演算法目前可以做的是識別模式和從文本塊中拾取主題,或者從一些句子中推導出整個文檔的意義。 然而,我們離人工智慧(AGI)還差得遠呢,當一台機器能夠從有限的經驗中抽象出概念,並在不同領域之間傳遞知識。

02

醫療限制

為了避免過度濫用技術,還必須承認當今 ANI 的醫學局限性。 在圖像識別和使用機器學習和深度學習演算法進行放射學的情況下,有可能不僅給計算機提供成千上萬的圖像,還有潛在的偏差。

例如,圖像往往來自美國的一個部分或者演算法概念化的框架本身就包含了工作團隊的主觀假設。 此外,智能演算法的預測和預測能力在以前的案例中得到了證實——然而,在藥物副作用或治療耐藥性的新案例中,它們可能毫無用處。

另一方面,精簡醫療記錄並使之標準化,使演算法能夠理解這些記錄,這意味著在向醫院部門介紹 ANI 執行行政任務方面又有巨大的局限性。 在許多醫院裡,醫生仍然會在病人的病歷上亂塗亂畫。 如果兩個星期後,即使是寫了這些筆記的人也不能閱讀,那麼計算機應該如何理解這些筆記呢?

03

道德挑戰

然而,與倫理和法律問題相比,人工智慧以及 ANI 的醫療和技術局限性仍然更容易被克服。 如果一個聰明的演算法犯了錯誤,而且沒有在肺部 x 光片上發現癌性結節,那該怪誰呢? 當人工智慧提出一個錯誤的預測時,有人可以向誰求助呢? 誰會建立安全特性,這樣人工智慧就不會對人類產生影響? 決定安全問題的規章制度是什麼?

這些複雜的倫理和法律問題應該得到回答,如果我們想到達安全和安全的階段。 此外,安尼和在一定程度上,應該謹慎和逐步地實施 AGI,以便為繪製潛在風險和不利因素提供時間和空間。 獨立的生物倫理研究小組以及醫療監督機構應密切監測這一過程。 這正是開放人工智慧基金會在更廣泛的範圍內所做的。 它是一家非營利性的人工智慧研究公司,發現並制定了安全人工智慧的路徑。 他們的工作是無價的,因為他們正在進行長期研究,並可能有助於制定關於如何在微觀和宏觀層面使用人工智慧的道德標準。 也許在醫療領域也是如此。

04

更好的規章制度

美國食品及藥物管理局於2017年批准了由阿特里斯公司開發的首個基於雲計算的心臟成像深度學習演算法,這是向未來邁出的一大步。 然而,圍繞人工智慧的規定通常落後於或根本不存在。 隨著技術的發展和在未來5至10年內在醫院出現,決策者和高級決策者不能不處理這個問題。

他們應該走在技術浪潮之前,按照他們與其他行業利益相關者制定的原則和道德標準,指導在醫療保健領域實施人工智慧的過程。 此外,他們應該推動公司把可負擔得起的人工智慧解決方案放在桌面上,並且始終把注意力放在病人身上。 各國政府和決策者還應幫助制定人工智慧使用標準,因為我們需要從最小的單位(醫療專業人員)開始制定具體的準則,直至最複雜的單位(國家級醫療保健系統)。

05

誤解和過度吹噓

通過營銷策略和過於簡化的媒體表述來誇大人工智慧的能力,不僅無助於破壞人工智慧如何為醫療保健做出貢獻的健康形象。 這也增加了混亂和誤解的迷霧,當我們想要成功地將這項技術應用到我們的醫療系統中時,需要澄清這些迷惑和誤解。

機器學習、深度學習、智能演算法、 ANI、 AGI 或其他任何關於人工智慧的術語和概念的定義都需要仔細處理。 它對醫療保健的影響也是如此。 關於 Facebook 關閉人工智慧實驗的故事,是因為聊天機器人開發了他們自己的語言,他們如何開始將人類排除在這個過程之外,這個故事被從印度到香港的許多新聞網站所誤導,加劇了人們對於人工智慧會變得有意識的擔憂,並且旨在摧毀人類。 這只是一系列類似文章中的一個例子。

06

人類的拒絕

對人工智慧消滅人性的恐懼與對人工智慧為醫療專業人員工作而來的誇大言論是一致的。 甚至史蒂芬 · 霍金也說過,人工智慧的發展可能意味著人類的終結。 埃隆 · 馬斯克表示同意。 此外,據說人工智慧接受了放射科醫生的工作,機器人超越了外科醫生的技能,或者打算從事製藥行業的很多工作。 難怪醫學界拒絕了 A.I. 這些智能演算法接管世界還不夠嗎,他們也是為了我們的工作而來嗎?

對於人工智慧的恐懼是可以理解的,因為很少有人真正理解這項技術是如何在細節上發揮作用的。 我們不理解的是,我們傾向於拒絕。 更重要的是,如果思想領袖或媒體也傾向於誇張和極端地對待這個問題。 儘管要適應這項技術需要時間,我們建議每個人都要思想開放,熟悉在日常生活中使用人工智慧的概念。

在2017年5月在聖何塞舉行的 GPU 技術會議上,斯坦福大學放射學教授兼生物醫學信息學柯蒂斯 · 蘭洛茨將這種情況比作航空自動駕駛儀的情況。 創新並沒有取代真正的飛行員,而是增加了他們的任務。 在非常長的飛行中,打開自動駕駛儀是很方便的,但是當你需要快速判斷的時候,它們是沒用的。 因此,人類和機器的結合才是成功的解決方案。 在醫療保健領域也是如此。 我完全同意蘭洛茲的觀點,他說人工智慧不會取代放射科醫生。 然而,那些使用人工智慧的放射科醫生將取代那些不使用 A.I. 的人。 此外,這種神秘的說法也適用於眼科醫生、神經學家、全科醫生、牙醫、護士或行政人員。 這就是為什麼我重新構思了上面的句子,儘可能簡潔地闡述醫學未來主義團隊的核心信息。

人工智慧不會取代醫生。 然而,使用人工智慧的醫療專業人員將取代那些不使用人工智慧的人。

阿基米德醫療


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 阿基米德 的精彩文章:

醫療服務和技術市場的相愛相殺

TAG:阿基米德 |