AI也要上稅?關於AI各種政策制定只需要看這一篇文章
原文:ARTIFICIAL INTELLIGENCE POLICY: A PRIMER AND ROADMAP
作者:Ryan Calo
編譯:曹建峰付一方
Ryan Calo是華盛頓大學法學院副教授,專攻機器人、人工智慧的法律政策研究。
編者按:清早,智能音箱喚你起床,演算法開始推薦你喜歡的萌寵視頻,出門無人駕駛車輛已經在門口等候。人工智慧技術的發展似乎在一夜間無孔不入,而迎面而來的隱私泄露、演算法歧視等等倫理道德法律問題皆不能忽視。
來自華盛頓大學法學院副教授Ryan Calo,針對人工智慧演算法系統的可能帶來的衝擊,從正義與公平、安全與認證、隱私與權力、稅收與失業、問責等方方面面做出深入剖析,指出政策制定對於AI技術發展的重要指引作用。
可以說,人工智慧政策研究決定了AI發展的尺度,政策制定比技術發展更緊迫。歐美的學者研究,對於中國的政策制定,亦有借鑒意義。
引言
2018年人工智慧依然很火,而且隨著時代的發展和技術的進步,人工智慧將變得越來越重要,成為人們日常生活必不可少的組成部分,影響人類社會的方方面面。在此背景下,美歐各國都已開始研究制定相應的政策規範,並對人工智慧未來的發展方向進行規劃。
目前對於人工智慧,並不存在一個明確、統一的概念。總體來看,人們認為它是一套試圖使機器能夠像人類一樣從事某些特定活動的系統。例如,現在的無人駕駛汽車,就是使機器能夠像人類一樣操控汽車,這些技術的開發也稱為機器學習(ML)。
人工智慧可以應用於工商業、製造業、軍事等多個領域,人工智慧的發展無疑會給我們的經濟、社會及國防安全帶來新的影響。良好的政策和完善的戰略計劃是應對這些影響的不二選擇。
1
正義與公平
(justice and equity)
人工智慧政策研究的一個重要內容是人工智慧演算法系統的公平性、問責性以及透明度。這些問題可能還涵蓋人工智慧的相關功能或產品中反映出的偏見性問題,以及人工智慧在財務和健康檢查等方面的應用問題,甚至是其在司法領域能否幫助司法人員做出涉及被告人自由的判決等一系列問題。
現在有兩個政策性問題。其一,最小化偏見(反歧視法,消費者保護,行業標準)的最佳做法是什麼。其二,如何保證人工智慧的風險和收益在社會環境中平均分布。
偏見性問題體現出了人工智慧在發展過程中可能出現的不平等性問題,特別是政府在存在規則和保障程序的刑事審判系統等領域內使用人工智慧的時候,這種不平等性則更加凸顯。
此外,爭取透明度和公平性不應以犧牲效率為代價,否則人工智慧的工作過程可能會花費很長時間,實際上反倒會降低其準確性。所以需要進行權衡。
2
安全與認證
(safety and certification)
許多系統——例如完全無人駕駛的汽車-——都是通過對人類環境中的物體施加直接的和物理的控制來實現的。人們需要經過培訓並獲得認證才能從事這些活動,比如駕駛。自動駕駛汽車、機器人等人工智慧應用引出了關於人工智慧系統的相關標準以及是否有用於確保能達到這些標準的程序和技術的問題。
機器人和其他網路物理系統(cyber-physical system)必須是安全的。問題是怎麼才能做到安全以及我們怎麼知道它是安全的。
例如無人駕駛的汽車,是不是只有其能夠做到比人類駕駛更安全時,我們才會大範圍應用它。但「比人類更安全」似乎是一個不適當的審查標準。
該系統是否必須比傳統汽車或最先進的需要一定人類輔助的車更安全?該系統是否必須比全體人類或所有的駕駛方式都安全?無人駕駛的汽車要做到比人類駕駛的安全度高多少,我們才能夠接受或繼續鼓勵製造它們?
這些問題最終都不是技術問題,而是政策問題。
政策制定者應為無人駕駛汽車、無人機和人工智慧的其他現實應用設置確定的安全閾值,並確定一個合適的方法來驗證其是否符合這些標準。具體方式包括政府審批、第三方獨立認證和行業自我認證等。
有些工作當由人來完成時,需要其獲得相應的資格認證,但當由人工智慧去執行時,似乎不再需要過於正式的認證要求。
此外,現如今,人們越來越清楚地認識到,人工智慧使已經難以解決的網路安全問題變得更加複雜化了。
機器學習和其他人工智慧技術有可能改變網路安全方面的攻防能力,正如美國DARPA舉辦的競賽中人工智慧代理人進行自主攻擊和網路防衛一樣,因此,必須開發新的防禦模式、標準和技術,以應對信息和物理基礎設施安全方面的新挑戰。
3
隱私與權力
(privacy and power)
人工智慧能夠識別人們無法獲取的信息的能力有可能會打破公共和私有之間已經不明確的界限。這意味著,看似簡單的信息共享卻可以洞察出深度敏感性的信息。
人工智慧與數據的使用緊密相連,只要政府和公司能夠跟蹤和預測人們的一舉一動,其就能夠進行模式識別,更深層次而言就是大數據。
政策方面的重大問題是,消費者通常不會細心留意何為共享信息。這也是目前歐洲電子指令改革中一個亟待解決的問題。
如果將來公共場合需要對每個人進行面部識別,想想都是可怕的。了解過多的個人信息可能會使這些人的信息被巧妙地控制住,甚至會被別有用心的人利用。
其實,政策方面不好解決的問題是如何能在保證人工智慧民主化的前提下,促進保護隱私的技術、法律、社會以及其他方面措施的進一步完善和發展。
4
稅收制度與失業
(taxation and displacement of labor)
人工智慧發展帶來的另一項問題是應該如何應對機器人替代人類從事一些工作的情況,如無人駕駛的卡車等,而且是否要對人工智慧系統進行徵稅(比爾蓋茨贊成的做法)。
應對這一情況,我們要進行適當的體制安排,儲備專業的人工智慧政策知識。整體層面的政策挑戰是如何更好地把人工智慧和機器人的專業知識介紹給各級政府及其各個部門,讓他們能夠更加自信地制定出更好的政策規定。並且,社會各界都呼籲決策者開放之前專有的人工智慧系統以對其進行合法審查。
5
自主武器
(autonomous weapons)
人工智慧決策中的一個特殊問題是自主武器的適用。關於自主武器的發展和部署存在很多觀點。國際上的普遍觀點認為,人們決不應該放棄「有意義的人類管理」而讓機器做出殺人的決定。
然而,關於有意義的人類管理含義和範圍的爭論仍然存在。監管是否足夠?目標選擇?這些行為需要延伸到防禦系統,還是只有進攻戰術和武器?這些重要問題都還沒有解決。
還有一個問題是誰應該對機器做出的行為負責。武器自動化在某些情況下似乎是可取的,甚至是不可避免的。例如,美國軍方似乎不大可能允許其軍事對手的反應能力比其自身的控制機制更快或者更靈活。
人工智慧的某些用途以人的決定為前提,但其中隱含著深層次的政策和道德問題——例如人們通過輸入演算法為無人機選擇攻擊目標。
正如人類學家馬德琳?克萊爾?伊利希所說的那樣,人們擔心士兵會被置於為不法行為承擔責任的循環中。因此,決策者必須致力於建立全面的人工智慧責任框架,且該框架能使所有利益相關者都感到公平和滿意。
6
其他方面
(other aspects)
以上列出的問題並沒有窮盡人工智慧可能對法律和政策造成的影響。除了隱私、勞動力或使用自主武器這些具體的政策內容之外,還會出現跨領域問題。
比如,如何確定治理人工智慧的最佳制度配置,怎樣將集體資源投入到有利於個體和社會的人工智慧發展中,怎麼去解決人工智慧問責制的障礙。
首先,在人工智慧的最佳制度配置方面,如果採用分散式的管理模式,那麼聯邦機構、州、城市和其他政府單位僅單獨處理與他們最相關的問題,這種方法對各種情況下出現的差異非常敏感,並保留了一定的試驗空間。
但有些人認為這種做法是有問題的。公眾認為法律無法趕上技術創新的發展速度。有些時候,當技術領先於法律通過時的水平的時候,法律或規則就過時了。
因此,政府必須具備必要的專業知識來管理深層次上以技術為核心的不斷發展中的社會。當國家沒有自己的專家時,它必須依賴於私人公司或其代理人的自利言論,或者採取一些不利於創新的死板的決定和行動。
因此,總體的政策挑戰是如何最好地將人工智慧和機器人技術引入所有分支機構和各級政府,以便他們可以更加自信地做出更好的決策。
其次,在投資和採購方面,奧巴馬政府發表了一個關於這個話題的獨立報告,指出利用人工智慧的方法就是為它投資。投資範圍不僅應包括促進了計算機科學發展且有助於確保美國在全球的競爭力的基礎的人工智慧研究,而且還應支持人工智慧社會影響力的社會科學研究。
此外,政府可以通過決定購買的產品而對政策產生影響,這種做法有時不太會得到認可。因此,各級政策制定者都應該考慮政府購買的支持人工智慧的產品的質量和特性以及它們的製造公司。
決策者還可以使用合同來保障隱私、安全和其他方面的權利。這反過來可以將整個市場推向更加負責任的運行方式,並使整個社會受益。
最後,在消除責任制障礙方面,目前許多正在使用或開發的人工智慧系統都是專有的,然而,在許多情況下,外部分析評價對於問責制來說是必要的。
一些報告、簡報和研究論文呼籲決策者消除實際或認為存在的問責障礙,包括:(1)商業秘密法,(2)計算機欺詐和濫用法,以及(3)數字千年版權法案中的反規避規定。這使得許多專家建議規划出消除這些障礙的官方政策舉措,以完善人工智慧行業責任制。
結論
人工智慧現在是政策界十分關注的一個問題。為了規範和促進人工智慧的發展,有必要為人工智慧的前景做出一個大致的規劃,並在正義與公平、安全與認證、隱私與權力、稅收與失業等方方面面結合本國國情制定相應的政策規則。人工智慧技術正在迅速發展,要盡量使法律與技術發展水平相適應,使得政府有能力應對人工智慧發展過程中對經濟、社會、就業等方面可能造成的影響。
※互聯網前沿法律動態周報
※大數據如何促進經濟增長?中國優勢及應對
TAG:騰訊研究院 |