人工智慧的問題及挑戰
導言
2018年4月25日,由北京大學法學院主辦的主題講座「人工智慧的問題及挑戰」在北京大學法學院凱原樓307會議室舉行。講座由哥倫比亞大學法學院中國法研究中心主任Benjamin L. Liebman教授主講,北京大學法學院副院長楊曉雷主持。北京大學法學院張平教授、王成教授、易繼明教授,中國人民大學法學院副教授張吉豫,華宇元典副總經理黃琳娜作為嘉賓參與了討論。本次講座主要圍繞美國司法實踐中人工智慧應用的爭議、演算法的可信度與可解釋性、中美人工智慧司法應用的對比三個問題展開了討論。本文系根據講座錄音整理而成。
* 本側記已經得到主講人授權公開,但是記錄內容未經主講人審核,如有錯訛由記錄人負責
主講人:Benjamin L. Liebman(哥倫比亞大學法學院中國法研究中心主任)
記錄人:王惠一(北京大學法學院碩士研究生)
圖片來源:Bing images
一、美國司法實踐中人工智慧應用的爭議
在美國的司法實踐領域,人工智慧主要用於風險評估,為法官提出量刑和假釋建議。將演算法用於風險評估明顯減少了美國的監禁率,其對犯罪概率的預測使美國在重點監控區域投放警力成為了可能,大大提高了犯罪的預測率。但這一應用也引發了三個方面的爭議。首先,人工智慧帶來了對正當程序的質疑。這一質疑主要來源於演算法的可解釋性,由於有些商業軟體不是開源軟體,人們並不能看到演算法是如何運行的,這與程序正當這一重要的法律原則相違背。演算法歧視是人工智慧的風險評估引發的第二個爭議。在設計演算法時,貧困、家庭狀況、人口數據統計、親友的犯罪記錄以及教育水平都是評估風險的因素,被警察詢問的次數甚至也成為了評估因素,這便導致黑人、窮人的風險評估結果大大上升。但實際上,傳統判決中也存在偏見和歧視。演算法的正確率是人工智慧在司法實踐中應用引發的第三個爭議。有研究指出,演算法方法並不存在任何規則和標準,其正確率並不比簡單的評估模型正確率高。此外,實際問題中應當考慮的因素遠比設計演算法時的參考因素複雜得多,演算法並不能根據具體問題進行分析。
二、演算法的可信度與可解釋性
在司法審判領域應用人工智慧是否能更好地促進公平正義是人們在審視這一技術應用時最關心的話題,而演算法的可解釋性是其是否能促進公平正義的關鍵。在對演算法的可信度與可解釋性進行討論時,首先應當區分不同的演算法應用場景,在用於提升人工決策效率的輔助性應用場景中,沒有必要對演算法的可解釋性進行要求。但如果演算法(如類案判決的推送及提供量刑建議)在司法判決的場景中應用,則應當對其可解釋性提出要求。除此之外,還應當請專家對演算法的可解釋性進行評估。其次,由於中國的法律還處于飛速發展的階段,在不同的歷史階段,很多類案的判決並不相同,因此,在討論演算法的可信度及可解釋性時,還應當對演算法使用的數據進行審查、分類。
對於演算法的可信度與可解釋性問題,實務屆人士認為應當研究具體的問題,而不是討論抽象的主義。因為在討論宏觀問題時,分歧可能是絕對的,在討論法律AI的時候,可以更加關注實際應用的問題,進行降維的討論。比如對於實際應用場景的演算法可信度及可解釋性問題,讓法律人去解釋演算法的可信度是十分困難的,但在產品設計時完全可以迴避這一問題。以量刑建議的推送為例,有隻推送歷史數據不進行量刑建議、將量刑建議作為可選按鈕以及直接推送量刑建議三種模式,如果選擇第一種或第二種方式,則判斷的主動權仍然掌握在法官的手中,演算法的可信度問題在產品中也就不那麼凸顯,也即價值只有在面對具體用戶的時候才有意義。在討論法律AI時,首要目的還是要促進公平正義。
但應當注意的是,目前法律人工智慧產品主要還是由商業力量進行開發,商業的邏輯是逐利而不是促進公平正義,由商業力量主導進行人工智慧開發帶來的問題可能是法律私有化,因此,對商業力量開發的法律人工智慧產品持保守態度是較為謹慎的做法。
圖片來源:Bing images
三、中美人工智慧司法應用的對比
2016年,我國開始了智慧法院的建設,2018年,我國最高人民法院發布的《智慧法院建設評價報告(2017)》顯示我國智慧法院已經初步建成。但目前在中國,人工智慧在司法領域的應用效果主要體現在提升司法效率上,還遠不能達到輔助法官進行判決的高度。但是否應當加快人工智慧的司法應用進程呢?可以從中美兩國人工智慧應用的對比中尋找答案。縱觀中美兩國的人工智慧司法應用,可以發現兩國在對待人工智慧的司法應用問題上持兩種截然不同的態度,美國的態度比較保守,而中國則較為激進。除此之外,美國的人工智慧司法應用是自然發生的,是市場需求的結果,而中國則是政策導向型發展。
演算法歧視和演算法的可解釋性問題是人工智慧司法實踐的「通病」,而演算法帶來的一致性問題可能會成為「中國特色問題」,這與司法獨立和司法公信力聯繫緊密。在中國,人工智慧引起的法官失業焦慮遠比美國嚴重。美國的法律是人民為爭取自由權利而鬥爭的產物,法官擁有較高的社會威望,人民對於法官的信任是很難被人工智慧輕易取代的。但是中國法律主要來源於移植,法官在判決時往往要考慮更多法律與事實之外的因素,人民對於法官的信任遠沒有美國高,社會影響與政治影響很可能是法官在判決時考慮更多的因素,但演算法是不會考慮這一問題的。此外,中國社會與法律處于飛速發展的階段,是否有必要保證判決的一致性是一個值得討論的話題,這些都會對人工智慧在中國司法實踐領域的應用造成障礙。由於演算法是由人設計的,演算法的中立性便很難被保障,這就導致演算法可能淪為法官迎合考評標準的工具,這也是一個值得關注和思考的問題。
中華人民共和國最高人民法院官網截圖
對人工智慧的討論不能如同盲人摸象,應當分類型、分階段地進行。人工智慧的發展分為弱人工智慧和強人工智慧兩個階段,這兩個階段分別對應著人工智慧的輔助性應用和決策性應用。總體而言,本次講座主要從人工智慧在刑事領域的應用展開,圍繞人工智慧的輔助性應用帶來的問題進行討論。人工智慧應用產生的民事責任問題、人工智慧的法律人格等問題並沒有在本次講座中得到回應,強人工智慧階段的問題還需要進行進一步的探討。
責任編輯:袁伊勁 葛思嘉
技術編輯:路小南
TAG:法意讀書 |