數學家設計出機器學習永遠「學不會」的問題
並非一切都是可知的。在一個人工智慧和機器學習看起來無所不能的世界裡,這似乎就是個異端邪說——但這是真的。
至少,根據數學家和人工智慧研究團隊的一項最新的科研成果,情況就是這樣:他們發現,儘管機器學習的能力看似無窮無盡,但即使是最聰明的演算法也受到了數學的制約。
「數學帶來的優勢有時會成為弱點……簡而言之……並非一切都是可證明的。」第一作者、滑鐵盧大學的計算機科學家Shai Ben-David領導的團隊在論文中寫道。
「我們在這裡表明,機器學習也無法擺脫這一命運。」
偉大的奧地利數學家庫爾特·哥德爾(Kurt G?del)在20世紀30年代發展了所謂的不完備性定理——在某些體系中,存在著我們永遠無法搞清真假的事實。
現在,Ben-David表明,機器學習受到同樣的限制。
在他們的論證中,機器實際學習的能力——稱為可學習性——可能受到數學體系的不完備性限制。換句話說,我們可以丟給AI一個「有意義」的問題——演算法無論如何也無法得到答案。*很難用簡短的文字解釋「有意義」,它本身需要可操作性和明確性;反過來舉出幾個「無意義」的問題,自行體會一下:我是誰?為什麼有人喜歡吃甜粽子?or世界上下一個瞬間死去的人是誰?or靈魂存在嗎?……
以色列理工學院的高級研究員兼數學家Amir Yehudayoff向Nature解釋說:「對我們來說,真是一個驚喜。」
在他們的研究中 ,使用了「估計最大值」(EMX)的機器學習問題,實例是:網站試圖向最活躍的用戶推送有針對性的廣告——儘管負責的演算法事先無法知道訪問者的真實偏好。
在這種情況下,機器學習所用到的手段——被稱為概率近似正確學習(又稱PAC學習),就會牽扯出類似於連續統假設的數學悖論。
連續統假設在常規公理體系中屬於無法被證明或證否的命題,並且考慮到EMX的條件,機器學習演算法可能也會陷入類似的困境。
「[研究人員]發現機器學習問題,其命運取決於連續統假設,這使其解決方案永遠無法實現,」並未參與研究、伊利諾伊大學芝加哥分校的數學家和計算機科學家Lev Reyzin在給Nature的評論中寫道。
當然,對給定不同參數的EMX問題,結果也不盡相同。但在學術上,新論文提醒人們,計算機科學無法逃避其深奧的數學基礎的問題。
「機器學習作為一門數學學科已經足夠成熟,現在又滲入到諸多數學子學科中,」Reyzin寫道,演算法甚至開始論證人類自身都無法證明的問題。
「也許這樣的結果能為機器學習領域帶來必要的謙遜之情,使其更加健康的發展,即使機器學習演算法正在徹底改變世界。」
該研究結果發表在Nature Machine Intelligence上。
本文譯自 sciencealert,由譯者 majer 基於創作共用協議(BY-NC)發布。
※一暴露在磁場就立即變硬的3D列印超材料
※韓國修訂法律:遊戲代練屬於非法行為
TAG:煎蛋 |