華爾街發現AI應用尚有局限
2018年8月22日,高盛董事總經理兼機器學習全球負責人Charles Elkan在開源AI軟體公司H2O.ai主辦的會議上發言。圖片來源:SARA CASTELLANOS / THE WALL STREET JOURNAL
高盛集團(Goldman Sachs Group Inc., GS)和摩根士丹利(Morgan Stanley, MS)對人工智慧進行多方位試驗的專家稱,人工智慧可能有助發現欺詐行為,減少演算法交易中的錯誤,但眼下這種技術仍存在很多局限。
摩根士丹利機器學習和人工智慧執行董事Ambika Sukla周二在一個人工智慧大會上表示,運用人工智慧領域取得的進步為金融領域創造利益需要做很多工作。Sukla表示,在研究開發一些新模型的過程中,有必要謹慎推進且有人類的參與。
在開源人工智慧軟體公司H2O.ai舉辦的一個大會上,Sukla等人談到人工智慧對金融行業的潛在影響。此次大會的召開適逢自動化、軟體和電腦驅動的量化基金在金融業興起之時。正如《華爾街日報》(The Wall Street Journal)此前報道的,目前代碼取代交易員完成很多工作。
Sukla說,在摩根士丹利,人工智慧通過對人類無法消化的數百份文件和數據來源做更多研究和分析,可以為客戶提供更好的交易和投資理念。人工智慧還可以用來識別信用卡交易異常、電匯詐騙,以及減少演算法交易的錯誤。他說,人工智慧也是虛擬助手的基礎技術,虛擬助手可以處理簡單任務,回答員工和客戶的簡單提問。
但是,當回答那些需要背景理解和財務敏銳度的問題時,人工智慧演算法很容易被愚弄,所以在這方面指望不上這項技術。在提到那些接受模式識別訓練的演演算法時,Sukla說,尚不清楚這些模型是在不斷學習還是僅僅是簡單記憶數據。
Sukla等人在會議上說,通用人工智慧(general purpose artificial intelligence)能夠理解知識、通過觀察來學習,能夠解決問題併產生想法,我們離這個目標還很遠。
高盛董事總經理兼機器學習全球負責人Charles Elkan稱,在他看來,根本性問題是他所謂的深刻理解與膚淺理解的比較。他說,膚淺理解是只能回答那些彼此相似的有限問題,而深刻理解意味著了解整體背景且擁有廣博的知識,包括知道誰在提問,而這是人工智慧演算法所不能企及的。他舉例說,使用聊天機器人對求職者進行初步篩選是不可能的,因為這項工作需要深刻理解。
Elkan說,目前對於人工智慧系統能否像人類一樣聰明或比人類更加聰明的猜測甚囂塵上。他說,答案就是,沒有自然法則說超級智能是不可能的,但目前已知的所有人工智慧演算法都不會達到人類智力水平,更不要說超級智能。
高級人工智慧系統的另一個局限是,這種系統無法解釋它們是如何做決定的。
一些公司、私人機構和研究人員對於藉助人工智慧的透明性在人類和機器之間建立起更高程度的信任很感興趣。
例如,Capital One Financial (COF)正研究機器學習演算法可以用什麼辦法解釋其答案背後的理由,這可能會在防範潛在道德和監管問題方面產生深遠影響,因為該公司正在銀行業務中使用更多的人工智慧技術。
機器學習使計算機得以藉助最低限度的編程工作從數據中進行學習,是人工智慧很大的一個組成部分。人工智慧包含了多種技術,這些技術被用於教計算機如何像人類一樣學習、推理、感知、推斷、交流和做決定。
富國銀行(Wells Fargo & Co., WFC)企業模型風險部負責人Agus Sudjianto說,他的團隊已經研究出讓機器學習模型像統計模型一樣透明的方法。
他表示:「將機器學習或人工智慧付諸應用的一大障礙是可解釋性。」
Sara Castellanos
(本文版權歸道瓊斯公司所有,未經許可不得翻譯或轉載。)
※位元組跳動正討論香港IPO計劃
※美聯儲向壓力測試未達標的銀行提供變通方案
TAG:道瓊斯風險合規 |