機器人應該擁有權利嗎?
【獵雲網(微信號:ilieyun)】6月14日報道(編譯:讓妲己看看你的心)
試想有這樣的一個世界,在這個世界中,我們人類可以同那些與我們一樣的「生物」共存,這些「生物」有思想、有情感、有自我意識,同樣也有執行行為的能力,但與我們不同的是,這些「人」還有一個可以隨時打開或關閉的人造機械身體。
當我們人類把機器人作為日常生活的一部分來對待時,這個美麗的新世界也會帶來很多的問題。我們應該如何對待它們?我們有怎樣的倫理道德責任呢?這些非人類應該擁有什麼樣的倫理道德權利?試圖阻止它們的出現在倫理道德上是被允許的嗎?或者我們有責任促進和培養他們的存在嗎?
Ian McEwan在其最近的小說《Machines Like Me》中提出了一些有趣的倫理問題,在這部小說中,阿蘭·圖靈擁有成功的長壽人生,並有力地推動了人工智慧的發展,從而創造了「一個擁有合理智能的人造人」。這一人造人擁有類似人類的注意力和外表,且能夠表現出與人類類似的行為動作和表情變化。
人類作為理性思辨的存在,思考倫理對理性、感性機器的處理是有趣的。但有兩個常見的論點可能表明,這件事沒有實際意義,因為任何倫理問題都不需要被認真對待。
首先,這樣的人造人不可能存在。第二個觀點則經常在墮胎辯論中被反覆提及,即只有那些擁有活的、獨立的、充滿生命力的人體的人,才應得到應有的道德尊重,並得到倫理上的考慮。當然了,正如我們經常看到的那樣,這些論點也是有爭議的。
此外早在1942年的短篇小說中,科幻作家Isaac Asimov就提出了機器人的3條準則,以保證機器人會友善對待人類並使人們免於機器末日。這些準則一是機器人不能傷害人類,或無所作為而導致人類受傷害;二是機器人必須聽從命令,除非這些命令違背第一條準則;三是機器人必須保護自身,但這些保護不能與第一和第二條準則相違背。
思想、物質與自然屬性
我們可能會認為精神現象——意識、思想、情感等等——在某種程度上不同於構成計算機和其他人類製造的機器的東西。我們可能會認為物質性的大腦和物質機器與有意識的大腦有著根本的不同。但是,不管這些假設是真是假——我個人認為它們是正確的——並不意味著有知覺的、有意識的、人為產生的人是不可能存在的。
法國社會學家Emile Durkheim曾非常有說服力地指出,我們應該警惕社會科學中過於簡單化的論點。社會現象,例如語言,如果沒有具有其特殊心理和生物學特徵的個人之間的相互作用,就不可能存在。但這並不意味著由此產生的社會現象或「新興屬性」就可以完全正確地解釋這些特徵。
關於「新興屬性」的可能性,同樣的的觀點也適用於所有的科學。例如,如果沒有構成這台機器的塑料、電線、硅晶元等部件,就不可能有人類現在工作的這類計算機。然而,計算機的操作不能僅僅用這些單獨部件的特性來解釋。一旦這些部件以特定的方式與電結合併相互作用,一種新的現象就出現了:計算機。同樣,一旦計算機以特定的方式組合和交互,互聯網就誕生了。但是很明顯,互聯網是一種與有形的物理計算機不同的現象。
同樣地,我們也不需要假設思維可以簡化為大腦、分子、原子或任何其他運作所必需的物理元素。它們可能是不同類型的實體,來自於它們之間的特定交互和組合。目前的人工智慧在更大程度上都是在模擬人的感覺和思維,讓一種更像人的思維機器能夠誕生。
沒有明顯的邏輯原因可以解釋,為什麼人類擁有的思考和決策能力在未來的某一天不會出現在機器人身上。當然了,這一觀點在物理層面是否可行,能否真正地發生,還有待商榷。
機器值得我們為之考慮嗎?
有一種觀點認為:我們人類不應該誹謗死去的人或肆意破壞地球,使未出生的後代無法像我們一樣享受它,這一觀點的正確性似乎沒有爭議。這兩個群體都應該得到應有的道德尊重和體諒,它們應該被視為我們倫理道德義務的潛在對象和我們仁慈的潛在接受者。
但是,無論是自然的還是人造的,死者和尚未出生的人都沒有任何形式的可存活的身體。以這一考慮為理由而拒絕給予它們道德上的尊重和考慮,似乎過分武斷且異想天開。這需要一個理由,但究竟是何種理由可能並不明顯。
也許有一天,或許比我們想像的更早,對理性、有知覺的機器人的倫理思考可能會被證明不僅僅是一個抽象的學術活動。
※中智行利用5GAI打造「中國式無人駕駛」,稱期待王勁加入
※人人車李健發內部信:將調整架構,合併部門、優化團隊
TAG:獵雲網 |