當前位置:
首頁 > 最新 > 我們為什麼不願意相信AI?

我們為什麼不願意相信AI?

人工智慧——即AI已經變得越來越聰明,甚至能夠預測未來。比如警察可以用AI來提前預判出犯罪的時間或地點,醫生可以用AI預測病人最有可能心臟病發作或是中風。甚至研究人員還試圖為AI添加上更多的想像力,因為其能夠規划出人類所預想不到的結果。

通常來說,在大眾的生活中很多決策都需要事先進行一定的預判。不過隨著AI的進步,其預測比人類更加優秀。然而,隨著AI技術的進步,我們似乎仍然缺乏對AI的信心。最近就有研究表明,人們不喜歡依賴AI,更願意去相信人類專家——即使某些專家是錯誤的。

你相信AI嗎?

IBM的超級計算機項目Watson給出的癌症治療方案,大部分時候與醫生的建議十分吻合。在印度進行的一項研究顯示,在治療肺癌時Watson給出的治療建議96%的情況下與醫生的方案相吻合;治療直腸癌和結腸癌時,與醫生建議的吻合率也分別高達93%和81%。而且,Watson在臨床試驗中篩選乳腺癌和肺癌患者的速度要比人類快78%。截至目前,超過14000名患者根據其計算已收到相關的治療意見。

但是當醫生與Watson互動時,他們發現自己處於相當複雜的局面。一方面,Watson給治療提供了指導,但其實醫生並沒有看到有多大價值。因為Watson做出的這些指導,醫生也早就知道。另一方面,如果Watson產生出反駁專家的意見建議,那麼醫生通常會得出結論——Watson是不能勝任的。因為Watson無法解釋為什麼它的治療是可行的,它的機器學習演算法是不被充分理解的,進而造成了更多的不信任和懷疑。最終,導致很多醫生忽視了AI建議,並堅持自己的專長。

沃森所面對的問題是,醫生根本不信任它。人類的信任往往是基於對可靠性經驗的理解,有助於創造安全的心理感受。而AI是全新的事物,絕大多數人都對其不熟悉。因此,即使可以在技術上解釋(而這並非也總是如此),AI的決策過程通常還是讓大多數人無法理解。不了解的後果就是會導致焦慮,使人類覺得自己正在失去控制力。

社會上有一個新的AI分歧?

如果我們希望AI能夠真正造福於民,就需要找到一種方式來讓AI獲得人們的信任。當然,要做到這一點,首先要清楚目前人們對AI到底有著怎樣的態度。面對逐漸有望落地的AI,似乎在社會上也有了分歧。

有外國專家在向不同的人播放AI相關科幻片後,就向他們詢問有關人工智慧、自動化等問題。他們發現,樂觀主義者更傾向於積極地擁抱AI。而懷疑者則變得更加極端,甚至變得更加謹慎,不歡迎AI的到來。

這表明,人們對AI的偏見是一個根深蒂固的個人傾向。由於參與報道AI的媒體越來越多,正反意見也在博弈之中,進而就會直接影響人們對AI的認知。一部分人會認為AI將讓生活更美好,另一部分人則認為AI會讓社會走向滅亡——這樣的分歧將會越來越嚴重。

解決AI「信任危機」就要保持透明度

但不管怎麼說,AI始終還是要向前發展的。而要解決AI的「信任危機」,就必須從多方面著手。目前,部分專家已經有了提高人們對AI信任度的方法。最基本的,就是要儘快習慣AI未來出現在我們的生活中——使用的越多,就會越信任AI。就像當年互聯網出現之後,很多人也持懷疑態度。但隨著互聯網全面落地之後,人們就對其完全沒有戒心了。

另一種解決方案則是打開機器學習演算法的「黑盒子」,讓其更加透明,展示出AI是如何工作的。這樣一來,能夠讓幫助人們對其有更好地了解。雖然絕大多數人不需要了解AI系統複雜的內部運作,但如果展示出較為關鍵的運作信息,人們會對接受AI融入生活持更加開放的態度。

不是我們不願意相信AI,只是對新生事物的一種本能「恐懼」罷了——就像原始部落的人還認為照相機能吸走「靈魂」一樣。當AI逐步普及後,對它的質疑自然也就越來越少。(科技新發現 康斯坦丁/文)

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 康斯坦丁 的精彩文章:

太空旅行中,這些鮮為人知的後遺症我們尚未解決

TAG:康斯坦丁 |