別說資管新規中的人工智慧你讀懂了
(圖片來源於互聯網)
作者
彭凱(Plucky)
周晨黠(William)
2018年04月27日,中國人民銀行、中國銀行保險監督管理委員會、中國證券監督管理委員會、國家外匯管理局聯合發布《關於規範金融機構資產管理業務的指導意見》(銀髮〔2018〕106號,以下簡稱「《資管新規》」),同時,中國人民銀行有關負責人就《資管新規》相關問題回答了記者提問(以下簡稱「《答記者問》」)。筆者跳過了「過渡期延展至2020年底」「私募基金的暫緩適用」「剛性兌付的不破不立」「三次提及的債轉股」等熱點,唯獨想就《資管新規》第二十三條的「人工智慧」主題展開講講。
新舊演變:從智能投顧到人工智慧
通過上表新舊條文對比,可歸納如下:
《資管新規》區分了「運用人工智慧技術開展投資顧問業務」和「金融機構運用人工智慧技術開展資產管理業務」兩種業務形態,該等業務形態在《資管新規(徵求意見稿)》中未作顯著區分。該點是第二十三條的一大變化,《資管新規(徵求意見稿)》將兩種業務形態混合,且都遵循「投資顧問資質」准入要求。但《資管新規》第二十三條第二款允許金融機構基於人工智慧技術做資管業務,並未對這類展業像「投資顧問」業務一樣要求取得投資顧問資質。
「智能投顧」在《資管新規(徵求意見稿)》中被表達為「金融機構運用人工智慧技術、採用機器人投資顧問開展資產管理業務」,而在《資管新規》中表述為「運用人工智慧技術開展投資顧問業務」。《資管新規》不再將智能投顧業務限於「金融機構主體」,即非金融機構在獲得投資顧問資質前提下亦可展業。基於該點考量,新規也不再將投資顧問資質審批主體限於「金融監督管理部門」,為今後的或有審批許可權調整留有了空間。
「金融機構」責任在《資管新規(徵求意見稿)》中被表達為「因違法違規或者管理不當造成投資者損失的,應當承擔相應的損害賠償責任」,而在《資管新規》中表述為「金融機構因違法違規或者管理不當造成投資者損失的,應當依法承擔損害賠償責任」。對「相應的」一詞作刪除處理,隱含著金融機構責任邊界擴張與全賠付之意。
「智能投顧演算法開發」在《資管新規(徵求意見稿)》中被表達為「金融機構委託外部機構開發智能投顧演算法,應當要求開發機構根據不同產品投資策略研發對應的智能投顧演算法」,並且同時針對「開發機構」職責與責任進行了專款規定,而在《資管新規》中表述為「金融機構應當根據不同產品投資策略研發對應的人工智慧演算法或者程序化交易」。僅從條文表述來看,「開發機構」存在感全無,能否得出「《資管新規》不允許研發外包」的論斷,尚有待討論。
新規視野下的人工智慧述思
如何理解「演算法」概念?
「演算法」一詞,從狹義的計算機科學角度而言,意味著從輸入值得出輸出值的一整套運算背後所蘊含的底層數學邏輯原理以及整體內在的計算流程。目前在人工智慧行業實踐中,人工智慧的演算法多採用CNN、RNN等神經網路,其數學原理是基於大數據的統計學,因此本質上在數學原理維度,人工智慧的演算法可能都是同質的,加上企業多採用現成的TensorFlow等開源神經網路開發框架,可以認為基於此類現成框架所編寫的代碼,其運用的數學邏輯原理基本一致。因此如果將《資管新規》中的「演算法」界定為狹義的底層數學邏輯原理,那麼只要是採用神經網路為原理使用人工智慧開展業務的公司,其演算法運用的底層數學邏輯原理基本趨同,進而就會遭遇「演算法同質化問題」。因此,我們傾向於將「演算法」一詞在《資管新規》中作「寬泛認定」,即使演算法底層數學邏輯原理一致、代碼所採用的開發框架一致,只要在使用框架時中所採用的參數不同,同時訓練所使用的數據有一定差異,即可認定為採用了「不同演算法」。
如何理解「演算法同質化」?
目前行業實踐中,向金融機構提供人工智慧演算法產品、服務的輔助機構,對應演算法的底層數學邏輯多有相似。筆者認為,《資管新規》視角下的「演算法同質化」,需要多維度解讀:
第一個維度是最本質的演算法數學邏輯原理,無非就是用於訓練的神經網路選用了CNN、RNN等之中的哪一種。
第二個維度是開發框架,在有了演算法以後不同的公司會使用不同的框架,因此呈現出的代碼本身出現較大的差別。
第三個維度是參數。神經網路選擇的分層數、各層選擇的節點數、各節點具體的選定、是否採用嵌套型的神經網路開發,這些問題採用的不同答案可以認為是在參數層面設計了不同的神經網路演算法。
第四個維度是數據。一旦演算法、框架、參數選定後,下一步就是使用大量的數據進行迭代進化,不停地進行數據訓練。除非是演算法、框架本身被淘汰,或者訓練的結果顯示參數選擇不合理,一般不會再對演算法、框架、參數進行大幅調整。簡單舉例,如果AlphaGo屬於第一代人工智慧產品,AlphaZero屬於第二代人工智慧產品,就AplhaGo和AlphaZero二者的區別就類似於在底層演算法層面以及選用參數層面發生了實質變化,但AlphaGo本身對弈一千次,就屬於使用大量數據訓練和迭代的過程。
《資管新規》的立法目的,是為了避免演算法給出同質化、類似的投資決策結果,而實現其立法目的無需殺雞用牛刀,不需要限制底層演算法的數學邏輯原理和開發框架本身,只需要限制演算法所使用的參數、數據不同,也可以達到其立法目的。因此筆者認為該立法的本意應是要求如上演算法的第三、第四個維度不同。
羊群效應是如何產生的?
《資管新規》第二十三條提出,要根據不同的產品來研發對應的演算法或者程序化交易,立法本意旨在避免「演算法同質化」,但真正要避免的,應當是指不同公司的同一款產品以及同一家公司的不同產品之間,人工智慧技術反饋的投資策略和建議趨同,由此會導致多個投資主體同時段甚至同時購買相同的投資標的,進而迅速拉高投資標的價位,而在價位被拉高的同時,其他人工智慧投顧會迅速發現「上漲趨勢」並採取各自的「追漲」策略。至此,投資行為的順周期性就出現並呈現加劇之勢了。
而之所以容易產生羊群效應,原因在於,目前人工智慧是以統計學為數學原理而成,統計學關注「相關性」而非「因果關係」,演算法本身並不判斷因果關係。
羊群效應誘因
演算法同質化問題、編程設計錯誤問題、對數據利用深度不夠問題,《資管新規》第二十三條第三款列舉了這三個問題,並被歸為「模型缺陷」,進而認為其屬於造成羊群效應、影響金融市場穩定運行的誘因。
演算法同質化問題,應當從數據本身出發進行解決。各家金融機構的自有數據會有區分度,但如果金融機構從外部採購數據,則外部採購數據多有重複,則可能導致因數據重複導致演算法所得出結果的趨同。因此如何確保在開發人工智慧系統時,使用了金融機構的自有數據?又如何確保金融機構的自有數據在演算法研發中佔據了「主導」地位?需知,該等開發行為難以監督與檢驗。
編程設計錯誤問題,存在一定的「口袋責任」之嫌。原因在於,如何判定編程設計錯誤的標準是無法明確的。按照國標來看,對於編程是有「容錯率」的,也就意味著低於容錯率,代碼本身即為合格。但代碼錯誤率是無法100%確保無誤的,想想諸位每次升級app時的更新修正說明吧,如果一出bug即認定為屬於編程設計錯誤,後果歸責似乎過於明顯。
對數據利用深度不夠問題。在底層演算法和開發框架之上,開發者會進行參數輸入。數據利用深度不夠,該問題如何判定,亦屬老大難問題,因為同樣缺乏判斷參考標準,是否指人工智慧分層的層數不同、每一分層上設置的參數和節點分布不同,進而引發演算法最終表現不佳?這一點實難評價。
二十三條拎重點
1. 撇開「摳字眼」式的文義解讀,《資管新規》第二十三條簡言之就是要求不同的資管產品要有針對性的訓練數據,同時由於bug在所難免,要定期對演算法得出的數據進行人工檢驗,允許演算法試錯的同時也要警惕風險。
2. 《資管新規》提及的羊群效應、演算法同質化,要求的可能不僅是一個機構不同產品的演算法要有差異,不同機構的同類資管產品的演算法要有差異,於筆者看來也屬應有之義。
3. 人工智慧用於投顧業務,需「持牌上崗」。
4. 無論金融機構或非金融機構,均可基於人工智慧開展投顧業務。
5. 投顧業務與資管業務是兩碼事,所以資產管理業務無論是否基於人工智慧技術開展,非金融機構都不能碰。
6. 金融機構基於人工智慧技術開展資管業務,不以取得投資顧問資質為前提。
7. 金融機構基於人工智慧技術開展資管業務,需要報備人工智慧模型的主要參數以及資產配置的主要邏輯。
8. 金融機構基於人工智慧技術開展資管業務,不能完全脫離人為監督與管控。
9. 金融機構基於人工智慧技術開展資管業務造成投資者損失,筆者看來,基本都要金融機構擔責。
10.所謂演算法同質化之「演算法」,應作寬泛理解,不應限於人工智慧常見的那幾種演算法種類。
11.羊群效應的誘發因素絕非限於演算法同質化、編程設計錯誤、對數據利用深度不夠等,尤其在無人監督機器學習情景下,「黑箱」屬性突出,風險不可預測,因此尤其強調人為干預。
12.金融機構基於人工智慧而做出的投資建議,只能作為參考,並不能完全脫離人,因為法條本身提出了「應當及時採取人工干預措施,強制調整或者終止人工智慧業務」要求。
結語
人工智慧對金融系統風險和潛在變化影響,目前來看很難預測。恰如《答記者問》所言,演算法同質化可能引發順周期高頻交易,加劇市場波動,演算法的「黑箱屬性」還可能使其成為規避監管的工具,技術局限、網路安全等風險也不容忽視。造成「監管不能」的可能性無法消弭,因為目前監管對於人工智慧技術在金融資管領域的運用,仍表現出較為謹慎的態度。也正因為此,基於人工智慧技術的兩類業態,一是「投資顧問」,強調「持牌上崗」,而是「資產管理」,要求「技術報備」。而所謂之「報備」,則或多或少隱含著「可否」意味了。
需知,人雖有情感波動、道德風險,但人的行為可追溯可定責,但人工智慧的過快引入和任其演變,「監管不能」會成為「大概率事件」,所以,監管整體表現出較為謹慎的態度。
TAG:智能曬客 |