當前位置:
首頁 > 天下 > 剛柔兼濟:人工智慧網路社會治理之道

剛柔兼濟:人工智慧網路社會治理之道

人工智慧在中國、在世界迅猛發展。顯然,人類社會現在正處在第四次產業革命的轉折點上。

如今,我們經過自動化控制(傻瓜相機)、初級人工智慧(家庭掃地機器人)、電腦思考的機械學習(對弈程序)等階段,正在邁進人工智慧社會的第四個階段,即能夠從大數據中提取特徵量的深度學習階段(阿爾法元)。在這個階段有一個最重要的特點,就是人工智慧網路化,不同系統互聯互通,在互相作用中共同進化。

人工智慧和互聯網聯繫在一起,形成了數據驅動的社會。在這裡,數據具有經濟價值,甚至可以發揮通貨的作用。在這個過程中,我們可以看到存在這樣的關係,即通過物聯網收集大數據、藉助人工智慧分析大數據,從而使得我們各種各樣的產業活動和生活能夠產生極高的效率,提供前所未有的發展空間。這是今天我們時代所面臨的變化,而這樣一種變化,同時也滲透到法律社會。

原文 :《剛柔兼濟治理人工智慧網路社會》

作者 |上海交通大學文科資深教授、中國法與社會研究院院長 季衛東

圖片 |網路

重視管控過程中的軟法,保持彈性空間

目前的人工智慧熱是由電腦數據處理系統的深度學習而引起的。由於存在深度學習,演算法及其組合的變化勢必超出人工智慧開發者的初始預料,甚至超出人們的控制而自行其是。由此可見,人工智慧在給我們帶來巨大便利的同時,也會帶來巨大的風險。當人工智慧互相連接形成網路的時候,在深度學習的媒介作用下很容易發生組合的自動變更以及無法說明的結果,這就勢必導致人工智慧判斷的黑箱化,甚至形成網路混沌現象。這時候我們會發現人工智慧將使得社會變得不透明化,安全性受到影響甚至頻繁出現失控、失序。

對於不同層面的人工智慧開發,當它們因網路而互相聯繫的時候,他們各自的不同目的之間會發生競爭甚至衝突,這時候會給開發者、利用者以及社會帶來各種各樣的危害。從這個意義上來說,如何對人工智慧發展過程中的風險進行評價進行管控,就成為人工智慧網路化社會的治理以及制度設計中核心的問題。

首先來談談人工智慧網路化社會治理的理念、目標以及基本方式。的確,人工智慧網路有利於社會的共生和普惠,對效率和整體福利的提高有明顯的促進作用。但是,在這個過程中,我們還需要注意的是中國原來比較忽視的價值能否實現和維持,例如個人的尊嚴、自律、自治這樣一些方面的社會目標能否不受到妨礙。重要的是如何使功利與個人權利這兩者之間達成適當的平衡。

在這樣的情況下,如果我們採取強制性的規範手段去進行管制,很有可能使得人工智慧新興產業不能得到及時而有效的發展。但是如果放任自流,人工智慧網路社會的風險就會越來越大。這是「一管就死、一放就亂」的老問題、新表現。從這個意義上來說,如何重視管控過程中的軟法,保持彈性空間就非常重要。

不要匆忙立法,但要確立適當的原則、倫理標準以及政策,特別是把剛性的立法與柔性的倫理行為規範進行適當組合,做到剛柔兼濟。這就成為我們在考慮對人工智慧產業進行適當監管、對人工智慧網路社會進行有效治理的主要方式。

人工智慧開發必須堅持人本主義的立場

關於人工智慧開發的指針和倫理標準,近些年來,特別是2016年之後,各國都在進行認真的深入的討論。我們在梳理各國討論人工智慧開發的原則和倫理規範時,可以發現有這樣一些基本的共識。

首先是對國際通用的指針、標準和規格,要求各個國家、各個企業都採取合作態度,而不要各自為陣。合作和協調的目的主要是確保互聯互通。與這項要求相關聯,我們可以看到中國在司法服務方面的智能系統開發的規格是很不統一的,這樣就造成重複建設,引起資源浪費以及一些目標衝突的情況。

因此,要儘快建立統一的國家標準,還要盡量參照國際標準和規格來進行設計,並且使得數據形式和處理方式能夠盡量標準化。這一切都可以看出,我們需要有一個統一的頂層設計、統一的指標體系,以使人工智慧的開發更加有序,提高資源整合和利用的效率,充分實現互聯互通的目標。

另一方面,人工智慧的技術要具有中立性和透明性。大家都知道,在法律領域,特別是涉及決策和司法、執法的方面,有一個非常重要的要求,這就是可問責性。問責的關鍵是履行說明義務,說明的關鍵是論證和解釋。如果演算法不可解釋,那就無法履行說明義務,也就無從問責。不能問責的法律人工智慧會帶來嚴重後果以及連鎖反應。

因此,人工智慧開發的一個重要課題實際上就是要防止演算法黑箱導致法律的問責機制發生變化。為此,必須強調演算法的可解釋性,儘可能地減少乃至防止出現演算法黑箱現象,確保採取人工智慧的法律過程也能進行問責。當然還要實現對可控性的要求,防止人工智慧在失去控制的情況下對人類社會造成傷害。

此外,我們在促進人工智慧開發的同時,必須堅持人本主義的立場,以人為本。尤其是無人駕駛的汽車、飛行器等的開發,一定要優先保護人的安全。人工智慧網路社會的特徵是數據本位,因此對大數據如何進行處理的規範體系建構顯得特別重要。要充分注意數據安全的保障,還有大數據中的隱私權保障等等。這些都是我們從現在起就應該注意的問題,應該制定必要的原則、規則、標準以及政策以防患於未然。人工智慧的產業跑得太快了,盲目開發、野蠻生長,也會丟掉靈魂,造成後悔莫及的事態。

相關主要法律問題要儘早研究

到目前為止,人工智慧在法律界的發展也是非常迅猛的,尤其在中國更是高歌猛進。

人工智慧本身涉及到的法律問題包括:人工智慧生成物的歸屬問題,比如說自動作曲或者自動繪畫的軟體產生的作品著作權歸屬問題。還有這些生成物的權利壟斷性承認等方面的問題。

另外,人工智慧生成物的行為責任的歸屬也是重要的問題,包括損害他人名譽,包括自動運行汽車事故的責任等等。此外還有提供給人工智慧進行學習的數據,其中既有著作權方面的問題,也有隱私權方面的問題,還有競爭的自由與公平之間關係如何適當處理的問題。不得不承認,現行法律制度在保護人工智慧方面存在著明顯的缺陷。比如說軟體程序的保護,演算法的保護,到目前為止在法律制度上都是不充分的,需要我們進行深入的研討。

特別值得指出的是,如今中國在法律服務行業以及司法方面都大量運用了人工智慧,其實這裡也存在很多法律上的問題有待探討。人工智慧代行法律業務是否違反法官法和律師法的規定?如果人工智慧被賦予法律人格,進行相關的活動有沒有法官資格和律師資格等等。這些問題都很有趣,也不得不儘早做出適當的安排,否則就會造成法律體系上的內在矛盾和缺陷。

大數據和人工智慧時代的司法權之變

特別是人工智慧在司法方面的運用,有些問題還是蠻複雜的,需要我們認真考慮,從長計議。我們都知道,對案件進行審理並做出判決的主體只能是法官。但是,在人工智慧廣泛運用到審判過程中去的場合,法官要藉助大數據處理系統來進行審理和判斷,自覺、不自覺地就會傾向於接受自動生成的判決文書,這就導致審判主體二元化,或者說審判主體出現層級化現象。

儘管我們現在都有意強調人工智慧的司法技術裝置只是一種輔助系統,但是在客觀現實中還是越來越多地出現了電腦演算法支配審判的情況。法官在辦案期限規定、司法問責制的壓力下,也傾向於利用大數據和人工智慧的辦案系統來迴避和推卸責任,這就勢必加劇演算法支配審判的事態。特別是大數據處理,它有可能使得既有的系統偏差值被固定化,甚至被放大。這些都是我們在討論法律人工智慧時特別要注意的問題。

總而言之,在司法領域中運用人工智慧,我們要未雨綢繆,儘早研討和確定今後在開發相關產品或數據處理系統中的標準和指針。人工智慧的演算法的確有利於矯正法官的個人偏差,尤其在中國存在濫用司法裁量權乃至司法腐敗的流弊的情況下,這樣的功能是非常重要的,具有積極意義。但是我們也要看到,演算法無法矯正所有法官都存在的那種系統偏差,這個問題如何解決是個非常大的問題。另外演算法透明化也存在著深刻的悖論——演算法資源如果封閉化就會造成司法黑箱以及內部人員濫用演算法支配地位的問題,但如果把這種資源開放,有可能促進司法的博弈和外部對演算法的操作。

更重要的一點是有關法律的判斷往往涉及到具體的情境、例外、規範創新,還有法與審判所碰到的日常場景往往是非常曖昧的,人通過直觀可以做出判斷,但是要通過人工智慧進行正確的判斷往往比較困難。在這種情況下,在曖昧中處理問題,特別需要根據價值判斷來做出決定。但是,對於人工智慧開發而言,最困難的部分就是價值判斷。而在法律領域中價值判斷幾乎是沒有辦法迴避的,如何應對價值分歧對人工智慧開發來說也是非常重要的課題。這不僅需要解決自然語言的語義處理問題,還必須考慮法律推理的特殊形態,也就是哈特所說文本開放結構,兼顧確定的核心與模糊的邊緣這兩個並存的側面。

從這個意義上說,我們應該看到人工智慧是一個非常重要的決策輔助系統,特別是在司法領域中。但是我們也要看到它的局限性。尤其是現階段,國內各個地方、各個行業都在分別進行開發,有點一窩蜂現象。這樣的自由試行當然有利於行業的發展,但是其中潛在的一些問題不久就會顯露出來。為此,我在這裡特彆強調標準化的任務,建議有關方面及時明確與法律相關的人工智慧開發的原則、政策和規格,還要確立業界的倫理標準和指導方針。另外,在這個方面加強國際對話以便互聯互通也是我們現在面臨的重要課題。

文章原載於社會科學報第1664期第3版,未經允許禁止轉載,文中內容僅代表作者觀點,不代表本報立場。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 社會科學報 的精彩文章:

加強農民工職業教育:推動以人為核心的新型城鎮化
新時代中國,如何構建自己的經濟學理論?

TAG:社會科學報 |