Facebook深陷信任危機!這一事件帶給醫療領域的啟示是……
葯明康德/報道
最近,有關Facebook導致用戶私人數據泄露的新聞報道層出不窮。Facebook在3月被爆出,有高達8700萬用戶的信息被一家名為Cambridge Analytica的公司非法獲得。
這條新聞一經爆出就引發了強大的社會輿論,社交網路上用戶信息的隱私性和安全性等問題又再一次成為了人們關注的焦點。而Facebook的創始人、董事長兼CEO馬克﹒扎克伯格在上周舉行的參議院聽證會上,就Facebook的運營模式和安全性等問題展開了陳述,並接受了來自四十多位議員的質疑。
▲近日,Facebook被爆出有8700萬用戶的數據遭到泄露,這讓社交網路用戶的隱私問題成為了人們熱議的焦點(圖片來源:Pixabay)
這次的風波中,人們更加關心的並不是Facebook數據遭到泄露這件事本身,而是其背後的用戶隱私權問題。同時,這次的事件也暴露出了Facebook一直引以為傲的人工智慧技術的一些問題,其中就包括在沒有徹底考慮社會規範影響的情況下應用AI技術時,可能導致的倫理方面的衝突。這一事件為醫療領域的領導者們帶來了一些生命倫理學方面的啟示,有助於他們在未來使用機器學習和人工智慧演算法模型作出更好的臨床決策。
在構建這些模型的過程中,最大的生命倫理挑戰在於如何在利用數據訓練演算法時,讓這些數據不帶有人類的偏見,從而防止演算法受此影響導致結果出現偏差。舉例來說,如果研究人員重複地只使用某種疾病的黑人患者相關數據對演算法進行訓練,而不考慮大環境等外部因素,那麼演算法就有可能錯誤地認為,該疾病在黑人中更常見。就拿精神分裂症來說,美國的黑人等少數群體和白人相比,尋求治療的意願相對較低。只有當病情嚴重時,才會去看醫生,使得黑人群體的診斷率高居不下。這也會導致人工智慧演算法錯誤地認為,精神分裂症在黑人患者中更加普遍。同樣,使用演算法來分析基因測試的臨床結果及風險時,如果來自少數人群的遺傳數據過於稀少,那麼演算法的結論將同樣會出現偏差。
這種偏差已經在現實研究中發生過:在2015年的一項研究中,研究人員利用著名的弗雷明漢心臟研究(Framingham Heart Study)中的數據來預測心血管疾病風險,其中對於黑人和西班牙裔患者群體的預測結果出現了偏差,原因是弗雷明漢心臟研究的研究對象主要為白人群體,缺乏少數群體的研究數據。
《科學》上的一篇報道闡述了一個統計學方面的機器學習模型,研究人員使用了來自萬維網的標準文本對該模型進行訓練。然而,最終結果顯示,該演算法傾向於將「女性」這個詞與藝術和人文科學領域聯繫起來,而將「男性」一詞與理工科領域進行關聯。這充分說明了人們的固有偏見可能會對人工智慧的分析結果造成很大的影響。
▲社會上對於男性和女性總是會存在著一些固有的偏見(圖片來源:Pixabay)
可以肯定的是,將大數據和機器學習整合到和臨床決策相關的數字化平台中,可以減少醫療服務的差距,也可以緩解醫生面對過多的管理工作時出現的倦怠心理,其前景是非常光明的。然而,要想做到這一點,醫學研究和醫療領域的領導者們需要率先發揮積極作用,引導人工智慧演算法上的革新。
雖然大數據和機器學習技術可能會構成結果上的偏差,但它們也提供了一些獨有的方式來抵消這些偏見。數據專家們已經開始呼籲在國際範圍內建立人工智慧的監督機構,通過自動計算機系統來防止對於少數群體的偏見。我們需要建立那些可以檢測並消除偏差的臨床決策系統和演算法,要達到這一點,必須在演算法建立的初期就將道德倫理因素納入考慮之中。
▲開發出能夠消除固有偏見的人工智慧演算法,從而更好地服務於醫療領域,是人類不可避免的責任
雖然人類會不可避免的帶有某些偏見,然而演算法是可以避免這一點的。儘管在很多情況下,開發一個可以消除已知偏見的臨床決策演算法過程可能會非常複雜,但是,如果我們要利用人工智慧來幫助醫生和其他護理人員做出臨床決策,同時確保人類的固有偏見不會影響人工智慧的計算結果,那麼這就是我們不可迴避的責任。
參考資料:
[1] What Facebook』s public scrutiny can teach us about artificial intelligence in health care
[2] The Cambridge Analytica scandal puts Facebook under scrutiny
※谷歌華人科學家帶來新突破:就算數據信息有限,AI也能準確識別疾病!
TAG:葯明康德AI |