當前位置:
首頁 > 知識 > 數學家設計出機器學習永遠「學不會」的問題

數學家設計出機器學習永遠「學不會」的問題

數學家設計出機器學習永遠「學不會」的問題


並非一切都是可知的。在一個人工智慧和機器學習看起來無所不能的世界裡,這似乎就是個異端邪說——但這是真的。


至少,根據數學家和人工智慧研究團隊的一項最新的科研成果,情況就是這樣:他們發現,儘管機器學習的能力看似無窮無盡,但即使是最聰明的演算法也受到了數學的制約。

「數學帶來的優勢有時會成為弱點……簡而言之……並非一切都是可證明的。」第一作者、滑鐵盧大學的計算機科學家Shai Ben-David領導的團隊在論文中寫道。


「我們在這裡表明,機器學習也無法擺脫這一命運。」


偉大的奧地利數學家庫爾特·哥德爾(Kurt G?del)在20世紀30年代發展了所謂的不完備性定理——在某些體系中,存在著我們永遠無法搞清真假的事實。


現在,Ben-David表明,機器學習受到同樣的限制。

在他們的論證中,機器實際學習的能力——稱為可學習性——可能受到數學體系的不完備性限制。換句話說,我們可以丟給AI一個「有意義」的問題——演算法無論如何也無法得到答案。*很難用簡短的文字解釋「有意義」,它本身需要可操作性和明確性;反過來舉出幾個「無意義」的問題,自行體會一下:我是誰?為什麼有人喜歡吃甜粽子?or世界上下一個瞬間死去的人是誰?or靈魂存在嗎?……


以色列理工學院的高級研究員兼數學家Amir Yehudayoff向Nature解釋說:「對我們來說,真是一個驚喜。」


在他們的研究中 ,使用了「估計最大值」(EMX)的機器學習問題,實例是:網站試圖向最活躍的用戶推送有針對性的廣告——儘管負責的演算法事先無法知道訪問者的真實偏好。


在這種情況下,機器學習所用到的手段——被稱為概率近似正確學習(又稱PAC學習),就會牽扯出類似於連續統假設的數學悖論。


連續統假設在常規公理體系中屬於無法被證明或證否的命題,並且考慮到EMX的條件,機器學習演算法可能也會陷入類似的困境。

「[研究人員]發現機器學習問題,其命運取決於連續統假設,這使其解決方案永遠無法實現,」並未參與研究、伊利諾伊大學芝加哥分校的數學家和計算機科學家Lev Reyzin在給Nature的評論中寫道。


當然,對給定不同參數的EMX問題,結果也不盡相同。但在學術上,新論文提醒人們,計算機科學無法逃避其深奧的數學基礎的問題。


「機器學習作為一門數學學科已經足夠成熟,現在又滲入到諸多數學子學科中,」Reyzin寫道,演算法甚至開始論證人類自身都無法證明的問題。


「也許這樣的結果能為機器學習領域帶來必要的謙遜之情,使其更加健康的發展,即使機器學習演算法正在徹底改變世界。」


該研究結果發表在Nature Machine Intelligence上。

本文譯自 sciencealert,由譯者 majer 基於創作共用協議(BY-NC)發布。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 煎蛋 的精彩文章:

一暴露在磁場就立即變硬的3D列印超材料
韓國修訂法律:遊戲代練屬於非法行為

TAG:煎蛋 |