未來人工智慧會說謊嗎?它們也會感到疼痛嗎
未來機器人會說謊嗎?
一般情況下,我們會認為機器人總是冷冰冰地進行分析,富於理性, 總是說真話。但是,如果要機器人融合到社會中,它們就可能必須學會說
謊,或至少有策略地保留自己的意見。
在生活中,我們一天會遇到好幾次必須說善意謊言的情況。如果別人 問我們,他們長得怎麼樣,我們一般不敢說實話。善意的謊言就像潤滑劑 一樣,能夠使社會的運轉更平滑。如果要我們突然完全說真話(就像《大話王》中金?凱利的角色),很可能會造成混亂, 並傷害別人。如果你告訴別人他們的真實模樣,或者你的真切感受,他們 會覺得受到冒犯,老闆會炒你的魷魚,情人會拋棄你,朋友會離你而去,陌生人會給你一巴掌。一些想法最好還是藏在心裡。
同樣,機器人可能也需要學習說謊或隱瞞事實,不然它們就會冒犯人 類,被主人解僱。如果機器人在聚會上說實話,這可能讓主人十分難堪, 造成混亂。所以,如果有人詢問它的意見,它應該學會閃爍其詞,學會外 交辭令和策略性語言。它要麼迴避問題,改換話題,說些陳詞濫調,用問 題回答問題,要麼就說善意的謊言(這些都是現在的聊天機器人所擅長 的)。這說明,機器人的程序中已經有了一張如何做出逃避性回應的清單, 必須從中選擇一種使事情最為簡化的回應。
需要機器人完全說真話的少數場合之一是對主人的直接提問進行回 答,主人可以理解這個答案可能真實而殘酷。或許僅有的另外一個需要機 器人說真話的場合是警察辦案的時候,這時需要完全的真相。除此之外,機器人可以自由地說謊,或者隱瞞事實。這樣,社會的車輪才會順利 轉動。
換句話說,機器人必須社會化,就像十幾歲的青少年一樣。
機器人能感覺到疼痛嗎?
我們一般會給機器人安排枯燥、骯髒或危險的工作。機器人沒有理由 不做無休止的重複或骯髒的工作,因為我們不會給它們編入感覺到枯燥或 厭惡的程序。真正會產生問題的是當機器人面對危險工作的時候。這種情 況下,我們會希望對機器人編程使它能夠感覺到疼痛。
我們進化出痛感,是因為它能幫助我們在危險環境中存活。兒童如果生下來就沒有感覺疼痛的能力,這是一種基因缺陷,稱為先天性無痛症。 表面看來,這似乎是一種福分,因為兒童在經歷傷害時不會感到疼痛,但 事實上這更是一種詛咒。患這種病的兒童會遇到嚴重的問題,比如咬掉自 己的舌頭,皮膚嚴重燒傷,割傷自己,有時會導致手指截肢。疼痛使我們 對危險保持警覺,告訴我們什麼時候從燃燒的爐子上把手拿開,什麼時候 停止帶著扭傷的腳跑步。
某些時候,機器人的程序設計也應該使它感覺到疼痛,不然它們將不 會知道什麼時候躲避危險。它們必須具有的第一種疼痛感是飢餓(即渴望 得到電能)。當電池用盡時,它們會變得絕望、著急,意識到不久自己的 電路就會關閉,自己的所有工作會陷入一團糟。它們越是接近沒電,就越 發焦慮。
同樣,不管它們有多麼強壯,機器人也會偶然遇到所搬運的物體太 重,可能把肢體弄斷的情況。或者,它們在鋼鐵廠的工作會接觸到熔化的 金屬,或者進人燃燒的大樓去幫助消防員時可能會遭遇過熱。溫度和壓力 感測器會警告它們自己的設計規定已經被突破了。
但是,一旦在它們的情感清單中加入疼痛感,就會立即出現道德問 題。很多人認為我們不應該給動物施加不必要的疼痛,對機器人,人們也 可能有相同的感情。這就引出了機器人的權利問題。我們可能會頒布法律 限制機器人要面對的疼痛和危險值。如果機器人做的是枯燥或骯髒的工 作,人們並不會在意,但如果它們在從事危險工作時感到疼痛,人們可能 就會開始提議立法保護機器人。這甚至會引起法律衝突,機器人的主人和 製造商要求提高機器人能夠忍受的痛感,而道德人士要求降低這種痛感。
這還可能會引發有關機器人其他權利的道德辯論。機器人可以擁有財 產嗎?如果機器人偶然傷害到人會怎麼樣?能夠對機器人進行訴訟,對它 們進行懲罰嗎?在訴訟中由誰承擔責任?機器人可以擁有另外一個機器人 嗎?這種討論引出了另外一個棘手的問題:應該給機器人道德感嗎?這些問題現在還不好推論!
?
※一個全新的理論指出,我們可以使用黑洞來探測暗物質
※如果宇宙終結了那麼超級智慧生命會倖免遇難嗎
TAG:迷人曲線 |