人工智慧浪潮下的法律倫理問題「人工智慧與未來社會:趨勢、風險與挑戰」學術研討會之十二
上海社會科學界聯合會主辦主管
GIF/64K
以學術為底色 以思想為旗幟
人工智慧浪潮下的法律倫理問題
惠志斌 | 上海社會科學互聯網研究中心執行主任
人工智慧是全新的技術嗎?顯然不是。早在20世紀中葉,以圖靈、維納、麥卡錫、香農等為代表的一批計算機科學巨擘們就開始了對人工智慧的科學探索。1955年,麥卡錫、香農等作為共同發起人邀請一批學者在美國達特茅斯學院討論人工智慧,也正是在本次會議上麥卡錫說服大家使用人工智慧這一術語。那之後不久,最早的一批人工智慧學者和技術開始湧現,達特茅斯會議也因此被廣泛認為是人工智慧科學研究誕生的標誌。人工智慧科學雖然一直備受關注,但其發展並非一帆風順。
21世紀第二個十年開始,隨著移動互聯網、雲計算、大數據、物聯網等技術的相繼普及,人工智慧發展的技術生態初步形成,各個領域的智能化商業應用開始普及。美國等發達國家全面啟動人工智慧的戰略布局,意在主導全球人工智慧科技革命的前沿。2016年,從谷歌公司人工智慧團隊開發的AlphaGo軟體完勝世界棋王李世石,到谷歌等公司的無人駕駛商用引發美歐交通規則改革,以及IBM、微軟、Facebook人工智慧平台的相繼推出,都在宣告人工智慧從科學實驗階段跨入商業應用階段,人工智慧發展進入爆發的臨界點。可以預見的是,伴隨產業的巨資投入和政府的大力支持,人工智慧技術必將在各國、各領域得到快速應用。未來數十年,人類的生產、生活也必將因為人工智慧而重新塑造。
然而,在對人工智慧發展無限憧憬的同時,我們必須認識到人工智慧技術可能是有史以來唯一沒有提供人類多次試錯機會的科技革命,必須認真審視人工智慧產生的極為複雜的經濟社會影響,必須前瞻性地研究人工智慧的技術倫理和價值導向等問題,以此來推動政府、企業和公眾共同科學規劃人工智慧的發展軌跡,共同守護人類的美好未來。
不同於其他科技革命一般只涉及法律和經濟問題的爭論,人工智慧的發展始終伴隨著倫理層面的爭議和反思。近年來,隨著人工智慧技術的成熟和商業應用,關於人工智慧倫理問題的研究持續升溫,內涵和外延都不不斷擴大。2016年《麻省理工科技評論》評選的最佳圖書就包括數本以人工智慧倫理為主題的著作,例如《數學武器:大數據如何加劇不平等、威脅民主》和《發明倫理:科技和人類未來》。2017年1月,麻省理工學院媒體實驗室與哈佛大學伯克曼?克萊因互聯網與社會研究中心合作推出一項預計耗資2700萬美元的人工智慧倫理研究計劃。
總的來說,人工智慧倫理學作為一個新興的研究領域,正在產生越來越多的開放式問題,人工智慧失控、技術性失業、演算法公平、感情道德、價值一致性等人工智慧倫理問題,正受到廣泛關注。
1.人工智慧失控
能否保持對有朝一日遠比人類更「聰明」的人工智慧系統的控制,是人工智慧倫理研究中最古老但又是終極性的問題。控制/失控問題之所以重要,是因為人類可能沒有反覆試錯的機會。目前,科技界將人工智慧的發展進程劃分為弱人工智慧階段、強人工智慧階段、超人工智慧階段。國外諸多專家認為,超人工智慧時代很快將會來臨,這種人工智慧形態能夠提高自身的各種能力,包括替自身設計一種改進版本,隨後那種更聰明的人工智慧版本將會做同樣的事情,這種遞歸式的自我改善可能導致最終的「智能爆炸」。 對此,《未來簡史》一書的作者、以色列歷史學家Y.N.赫拉利(Yuval N. Harari)提出了一種赫胥黎式的反烏托邦主義,指出人類可能的三大方向:人類將失去他們的經濟和軍事用途,經濟系統將不再有價值;對系統來說,人類整體將具有價值,但個體將沒有價值;然而,系統將在一些個體身上發現價值,但他們將成為一個超人的新物種,而不是普通大眾,這裡所說的「系統」指的是生物科學和信息技術以當前極快速度發展下去產生的新的社會形態。
2.演算法偏差和機器歧視
基於海量數據和強大演算法的人工智慧系統正在影響甚至替代個體行為決策,在人工智慧取代個體決策的趨勢下,演算法偏差和機器歧視並不鮮見且影響重大。例如,谷歌的圖片軟體就曾錯將黑人標記為「大猩猩」,Flickr的自動標記系統也曾錯將黑人的照片標記為「猿猴」或者「動物」。谷歌的演算法歧視問題早已引起人們注意,相關研究表明,在谷歌搜索中,相比搜索白人的名字,搜索黑人的名字更容易出現暗示具有犯罪歷史的廣告;在谷歌的廣告服務中,男性比女性看到更多高薪招聘廣告。
3.人工智慧引發的技術性失業
技術性失業是人工智慧面臨的經濟倫理的重大挑戰。2017年1月,麥肯錫全球研究院發布《未來產業:自動化、就業與生產力》報告指出,在800多種職業2000多項工作活動中,將近60%的職業或行業中有至少30%的工作內容在技術上可以自動化,但能夠全面自動化的職業或行業不超過5%,在人類與機器共事的情況下,自動化每年可以將全球生產力提升0.8%至1.4%。該報告同時指出,自動化技術帶動的大規模勞動力轉型將持續幾十年,類似的勞動力轉型歷史上早有先例,例如發達國家整個20世紀的農業勞動力大幅減少,但並未出現長期的、大規模的失業,這是因為技術發展同時衍生出之前不曾預見的新工作形態。
4.人機情感倫理
2015年秋季,英國BBC和美國CNBC等媒體報道了一家美國企業製造出女性形象「性愛機器人」的消息,該公司負責人認為該產品可以幫助喪偶者解決生活煩惱,這台真人大小的「全球首款性愛機器人」以6995美元的價格銷售,據悉該機器人預設了「交際型」、「服從型」等多種性格模式,但該產品卻引起了廣泛的倫理討論。對此,英國德蒙福特大學機器人倫理研究員K.理查德森(Kathleen Richardson)指出,過度專註機器人將「損害人類之間的情感共鳴能力」,並在互聯網上發出警示性聲明,向全世界募集支持者。
作為決策輔助者甚至直接決策者,人工智慧在金融、教育、就業、醫療、信賴、刑事執法等諸多領域開始扮演顯著角色,人工智慧能夠確保公平嗎,是否會給當事人帶來損害……?來自技術界和科學界各方面的傑出人士對於人工智慧的各種可能的負面影響已經表達出了擔憂。馬斯克、蓋茨、沃茲尼亞克、霍金等都對這些潛在危險發出了警告。數據科學家歐尼爾在其著作《數學武器:大數據如何加劇不平等、威脅民主》中將造成歧視、個體損害等不利後果的人工智慧稱為「殺傷性數學武器」,因其不透明性、規模效應及損害性而應當引起足夠關注。關注人工智慧的倫理問題並在研發設計過程中考慮這些問題正成為一個趨勢。
如今,我們欣喜地看到,包括聯合國、美國、英國、IEEE等都已經開始關注人工智慧的倫理問題,谷歌DeepMind和Lucid AI團隊都已經設立了倫理審查委員會。未來,人工智慧的透明性、演算法公平、監管和責任、信任等將進入更廣泛的公眾討論視野,相關標準和規範將進一步出台。新出現的諸如倫理、責任、安全、隱私等問題,需要在跨學科的基礎上,以及在政府、企業、民間機構、公眾密切合作的基礎上解決,以此來削弱人工智慧的不利影響,創建人類與智能機器彼此信任的未來。正如DeepMind創始人哈撒比斯所言:「人工智慧是一個偉大的技術,它本身都是中性的,可能被用於好的地方或者壞的地方,所以我們必須確保它的使用者是負責任的。」
(本文為惠志斌在2017年8月28日由上海市社聯《探索與爭鳴》雜誌社和華東政法大學政治學研究院共同主辦的「人工智慧與未來社會:趨勢、風險與挑戰」學術研討會上的主題發言,經本人整理,不代表本公眾號的立場。)
《探索與爭鳴》人間體
聯絡員小探
xiaotanxiaosuo
轉載 | 合作 | 諮詢 | 建議
長按掃碼加好友
END
人文社科學者的平台
《探索與爭鳴》
唯一官方微信平台
版權所有。歡迎個人轉發,媒體轉載請聯繫授權
點擊展開全文
※「電子人」——建構人工智慧的法律人格「人工智慧與未來社會:趨勢、風險與挑戰」學術研討會之十一
※控制的危機與人工智慧的未來情境「人工智慧與未來社會:趨勢、風險與挑戰」學術研討會之八
※走出人工智慧前瞻研究的燈下黑「人工智慧與未來社會:趨勢、風險與挑戰」學術研討會之七
※「世界上有一種職業是任何再先進的機器人也無法替代,那就是歷史學家」「人工智慧與未來社會」研討會發言之五
※當下中國「混」現象的三大原因
TAG:探索與爭鳴雜誌 |