人工智慧與法律:行為的新規則or人類的危機
琢磨這個問題很久,晚上沒有睡好,結果坐進書房寫出這片內容雜亂的思考隨筆,拋磚引玉。
--------------------
剛好今年的車險要到期了,於是在網上買了車險,拿到寄來的保單和合同正本。習慣性的打開看了下內容,合同版本號是2016版。看來保險公司這種以搏風險概率為業的公司特別在乎合同條款的完善性。因此,不知道以前已經更新過多少個版本了。保險公司能夠持續的更新和維護業務合同,除了法律法規的更新、變化和調整外,還有就是自身經營中發現和遇到的法律問題,包括實際遇到的案件及司法判決、裁定的內容,都能夠從中預測自身可能會觸碰到的法律問題,然後在下一版的合同中進行更新和完善。因此,法律工作乃至於法律本身就是一種經驗,這種經驗看似是對未來的行為方式的預測,實則是依靠過去的經驗去建立規則以預測未來。
因此,法律或者法學本身常常被認為是一種保守和落後的學科、專業,用過去為未來建立預期。作為法律工作者,其實很清楚絕大多數事情的未來會發生什麼樣的結果,這個結果是可以預測的,然而這個結果是依據法律預測的結果,來自於三段論。也許未來是不確定的,但過去卻是確定的,有關過去的經驗是能夠依據法律方法可以提取和總結的規則,我們所依憑的就是法律的方法論。
其實在現實生活中也存在一個和法律一樣的處理人類生活的方式。比方說,我們曾經依靠手工從事木藝,打造出車輪、車架、車轅、車軾,從而做成馬車;再後來工業革命的來臨,我們依靠手工、電鑽、焊槍、衝壓機床等造出一台汽車;當這些工藝可以使用到工具的時候,我們依靠工人使用工具來實現;直到我們發現許多工藝可以重複化、標準化的時候,現代工廠依靠衝壓機器人、焊接/塗裝機器人來代替人類的重複工作,更多的人被解放,去做需要依靠人類智力才能從事的工作。這就是機器智能化的第一步。
圖片來源:http://computex.pconline.com.cn/918/9188632.html
實際上人工智慧就類似於這樣一個過程,它本質上是將人類可以反覆重複的事情程序化,並基於演算法將這種重複化的工作中偶然發生的事情依靠不斷的積累去總結和預測,之所以稱得上智能,即是因為它開始像人類一樣試著對常態化或者偶發的行為進行總結並提前預判。因此,人工智慧(AI)本身就是一種經驗模式,它所掌握的就是過去的人類行為與經驗,並基於此分析、歸納出人類行為方式的法則,並對未來的行為作出決策和預測。所以,人工智慧的本質並不是不可知,它的行為方式本質上是可知的,就是基於過往的經驗。這種經驗一開始來自於人類自身,而它需要對於人類行為產生後周邊自然的反饋作出總結,基於人類的反應進行學習,從而為自己的行事建立規則。當它作為一種智能離開人類的操作獨立作出預測和決策的時候,自然環境的反饋、自己因此而作出的行動及結果回饋,就構成新的經驗內容或是一部分。所以,人工智慧起源於人類行為方式,但也會在此基礎上形成自己才會遇到的經驗。它既是對過去的經驗的總結,是可以預測的,但也是人類自身單靠自身的經驗不依靠人工智慧可以被破譯、學習和理解的。
人工智慧的特點
因此,人工智慧存在這樣幾個特點,包括具有和法律相似的特點。
第一,人工智慧是既往經驗的歸納和抽象化。
人工智慧的成型和發展基於人類行為的數據,因此大數據的崛起支撐了人工智慧的更加細緻和準確,因為能夠在龐大的數據的基礎上進分析、歸納和總結,得以為單個或某類人群建立一種畫像,也包括為類似的事件建立可以遵循的路徑,作出預測,包括對於一些單一事情的具象化預測與判斷。這都得以大數據將億萬次甚至更多的數據分類、歸納建立起更為繁雜但又有自身的演算法體系的規則。
這更像是判例法,也類似於成文法的立法規則,無論未來遇到何種案件,人工智慧已經為同樣或和類似的事情形成了特定的演算法規則。在法律的三段論里已經建立起大前提和行為模型。
第二,人工智慧是具有基於人類及生活環境所形成的特有的行為規則。
人工智慧具備自身特有的行為規則,這種特有的行為規則和其所採集的原始的人類行為方式存在聯繫,但又非完全基於人類行為的規則體系,有其自身對於自然世界的反饋和總結。而這些基於自身預測作出的行為和判斷,以及根據主動學習積累的行為方式、環境動態數據的整理,將再次被分析、歸納和積累為自身的規則體系,為下一次決策與預測行為建立規則模式。因此,人工智慧的行為規則,是一種特殊的規則,基於人類以及生活環境所積累的經驗,以及人工智慧基於自身行為數據的應用與總結,這是一種來源於自然世界,又不完全獨立的規則體系。
第三,人工智慧的行為方式是基於規則的可預測行為方式。
人工智慧基於大數據為基礎的演算法規則,為下一次任務提供了大前提和參考體系,機器行為則能夠根據更為相似或類似的因素,去命中某條或某類規則的行為方式,套用最具有相似性和合理性的演算法規則相應的行為案例,作出下一步的行為預測或者決策。所以人工智慧本身並不知道未來一定會是什麼樣的,但是它可以根據自身的經驗體系和演算法規則推測出它所計算出的「真實的」或是「應該是」的未來狀態,而這種預測和決策,已經包含里自身對於行為後果的預測和分析。
第四,人工智慧並不是在建立未來的規則,而只是在過去的事實上建立規則套用給未來。
人工智慧的演算法規則和法律本身都是一種具有各自適用範圍、效力等級的規則體系,一種是基於機器演算法,一種是基於人類的智識經驗和分析總結。一種規則體系在於為機器的非人類行為提供預測和決策,提供行為方式,以減輕人類從事複雜工作的壓力;而另一類則是一種經過人類基於公共利益、道德倫理、社會價值觀、公平正義等因素規範化的行為規則。都將為從事生產、生活的行為作出指導和預測,因此我們套用在未來的規則並非屬於未來,而是屬於以其特有方式建立的現有生活方式,現有世界的模樣構築了人類與機器演算法對於未來的認識寬度與廣度。
人工智慧與法律的差異
總之人工智慧具有著與法律類似的規則生成路徑,但又不同於人類規則的法律。比如,人工智慧常常被認為是冰冷的機器語言與規則,基於大數據的積累;而人類法律對於生產生活和商業行為的歸納分析所抽取的規則卻是除了特有的法律方法論,還以為充分的考慮考慮社會道德、倫理、公平正義等價值觀。有的規則是基於先例的遵循與取捨,有的則是來源於法官的衡平造法,還有成文法國家體系化的立法機制。
人類法律所不同的是,經歷了從自然法到實證法的過程,但也經歷了依靠自然法的修正規避「惡法非法」的可能性。那麼,對於機器演算法規則,能否也同樣遵循這樣的路徑則是人工智慧是否替代人類本身的風險所在,也是人工智慧在依靠自身演進過程偏離人類價值觀無法被人類所控制與矯正的風險所在,兩種風險都會是人工智慧被質疑和擔憂的根本問題。人類有足夠的智能理性對價值觀做出靈活的判斷,卻不代表人類可以為人工智慧提供更為更為合理規則,去讓機器甄別那些演算法規則是否合乎人類社會邏輯與價值觀的規則;包括,它在自我學習過程中不會因為機器行為所得到的自然反饋數據不會重重述或修改對於人類行為的預測方式?實際上從人工智慧的實現過程和主動學習的特徵來看是極有可能的。
雖然人工智慧和人類法律一樣都在不斷的學習和認知現實世界,但人工智慧和法律規則的仍然存在巨大的方向性性分歧。人工智慧的學習速度遠遠超出人類大腦的速度,它能夠在極短的時間裡就自然世界和行為建立起大量的分類規則,成為下一步主動行為的預測與指導;因此,就規則的量級來說是成規模級的細化,而人類法律規則雖然也類似,但速度慢了很多,而且很難建立這樣細緻和繁雜的規則體系,立法者所能夠從生活中歸納和抽象出來的規則不是為了適用於特定的人和特定的事件,而是為了針對不特定的人、不特定的事件建立預期和指導;而人工智慧的終極目標是能夠為特定的人、特定的事件建立起更有針對性的預期與指導。
兩種不同的目的性,決定了人工智慧演算法規則的主動學習是要成為一個可以替代人類的規則體系,而法律的不斷學習完善是在於為更多的不特定人群建立更為抽象、有效、可預期的規則體系。前者使得機器更接近於人,接近於人在於每件事件上的處理方式,而法律則在於大多數事件上建立一種可供參考或者是被遵守的標準。前者強調對於個體事件的準確性,後者強調對於不特定種類事件的準確性。
人工智慧的危險,同樣是規則體系會不會成為法律的規範目標?
前者論述到,人工智慧來源於人類規則,但它的主動學習模式會超越人類規則,機器會在主動學習的過程中基於自己的「遭遇」建立一種自己的「認識」,從而被豐富進演算法。那麼人工智慧會不會犯錯,會不會學壞,會不會「自甘墮落」呢?
這是有可能的,比如現在的手機都在突出人工智慧特性,能夠根據使用者以往的操作習慣、既有的演算法規則,為使用者提供建議或者主動的決策。曾經開車使用導航,導航默認會優先選擇高速,那麼這樣的結果就是無論是多遠的路程都會提供高速路線,乃至於本來可以通過普通城市環線的路線被指定為高速。那麼,如果用戶無意識的選擇了高速,人工智慧則會記錄這種習慣,那麼如果無人駕駛汽車會不會違背用戶本來是要走城市環線觀賞沿途風景的意志呢?當然機器可以學習,或許能夠彌補這種問題,但並不代表它不會犯錯。
那麼就引發出一個問題,手機經常會提示用戶選擇一些操作,然而用戶的認識無法作出正確的區分和判斷,有或者是無意識的屢次錯誤碰觸或者選擇了一些選項。那麼機器學習在此基礎上形成的演算法規則將會在相當長時間裡會為用戶作出錯誤的預測和智能決策,在一個獨立的機器上它可能根據自己的「遭遇」形成自身的行事規則,這種帶給用戶的不確定的錯誤可能性就將會是存在的。
既然人工智慧的主動學習來源在於人和環境,那麼跟隨什麼樣的人去學習就會建立更為細化更接近命令者習慣的行為規則。正所謂「近朱者赤、近墨者黑」,如果缺乏有效的人工智慧世界的價值觀或者基本協議,如何保證人工智慧不會成為又一個我們「自己」呢?
無人駕駛作為最為前沿的人工智慧技術目的在於減少人為的干預而實現車輛自己的行駛,以減少交通事故、提高交通效率。但不同廠家的無人駕駛系統如何保證互相能夠建立共有的互讓和通信規則,或者將自身的安全最大化?如何能夠保證無人駕駛的汽車們不會成就另一種人類駕駛行為呢?
因此這裡隱含這一種更為根本的差異在於:人工智慧缺少人類法律背後所隱含的價值觀的基礎。法律從立法者(包括廣義的立法者公眾)那裡獲得一些基本的精神、立場和原則,比如尊重自由、維護公平、講求秩序、保障安全。而人工智慧所要缺乏的底層規則就是它的主動學習應當是有意義的,或者是有邊界的,那麼人工智慧會根據自己的「遭遇」自己修正演算法規則,但都不應違反人類社會對於工具目標的最大容忍,不可以超越和踐踏人類社會的基本價值。
至少,人工智慧產業現在缺少一種秩序,即並未建立起一種共有的協議,去監督或事約束人工智慧的主動學習和進化。那麼就需要承擔一種風險,當它進化到足夠高的程度,能夠自主去修正規則、完全按照自己的遭遇和需要,不加價值判斷和取捨的去改變一些規則的時候,作為最終命令者的人,是不是已經覺得控制違背價值觀的風險已經太晚了?
所以,科技界應當有一種危機和責任,就是需要重新反思和完善我們對於人工智慧的期待與目標。除了解放人類,去從事重複甚至不適宜人類直接從事的工作外,是否需要在最基本的演算法規則或者硬體指令上達成一種共識或是協議,保障人工智慧的發展不違背人類世界,最基本的價值觀呢?
這不僅僅是一種可能和假設,因為就像法律和人工智慧只是在基於過往預測未來,卻對真正的未來沒有真正的可靠的策略。可靠的經驗可能提高可靠的預測,但也可能對預測的失誤缺乏真正準確的建議。畢竟在強大的機器運算面前,人可能更富有自然理性,但也往往錯漏百出。
TAG:以閱眾甫 |