當前位置:
首頁 > 驚奇 > 對人工智慧,你可能有這些誤解

對人工智慧,你可能有這些誤解

美國FOX電視劇《機器之心》中與人類警官搭檔的一個人形機器人會質疑正義與罪惡之間的矛盾

獲奧斯卡最佳視覺特效獎的科幻電影《機械姬》里描述,要控制比人類還聰明的人工智慧將十分困難

電影《機器公敵》中,機器人竟然具備了自我進化的能力

2015年,德國大眾汽車製造廠中一個機器人「殺」死了一名人類工作人員,當時大眾汽車公司發言人稱,該事件初步斷定是人為操作失誤造成的,而不是機器人的問題。可隨著人工智慧越來越普遍地出現在我們的生活中,這種「聳人聽聞」的事件不可能不引起人們的熱議。

今年,AI(即人工智慧機器人阿爾法狗)與人類頂尖棋手的對弈,再次震驚全世界。人們提出了關於人工智慧可能超越人類大腦的種種疑問,比如「機器人三定律」是否能真正控制人工智慧?人類是否該繼續設計更「完美」的機器人?等等。

所謂的「機器人三定律」其實是美國科幻作家阿西莫夫在1950年末出版的《我,機器人》一書中提出的關於「機器人學三大法則」,該法則為後世的創作產生了一定的指導意義:第一法則,機器人不得傷害人類,或坐視人類受到傷害;第二法則,除非違背第一法則,機器人必須服從人類的命令;第三法則,在不違背第一及第二法則下,機器人必須保護自己。當然後來該法則還衍生出第四、第五、第六法則,但始終強調機器人不得逾越人類的標準。

但通過數年時間的研究,人工智慧的發展速度顯然已遠遠超過了我們的想像。至今,人類對人工智慧還存在一些什麼樣的誤解呢?想必你會想知道詳情。

誤區1「我們永遠不可能發明出和人類智力相當的AI。」

在一些特定領域,比如說國際象棋、圍棋、股市交易以及人機對話等,我們已經發明出與人腦匹敵或超越人腦的計算機。電腦和驅動它們的運演算法則只會變得更好,電腦精通幾乎任何人類能力範圍內的事只是時間問題。

美國紐約大學心理學家蓋瑞馬庫斯曾說過,幾乎所有研究AI的人都認為機器最終將取代人類。甚至有未來主義者認為,機器統治人類這件事會在幾十年後發生。因為我們的大腦是「生物學意義的機器」,我們存在於現實世界裡,就要遵循基本的物理法則,人腦沒有東西是不可知的。

誤區2「人工智慧將會有意識。」

關於機器智能的一個普遍假設是:將來機器智能會有意識。也就是說,機器會像人一樣思考。但評論家們,如微軟創始人之一的保羅艾倫則認為,我們還未達到人工通用智能水平,即機器能夠像人類一樣執行任何需要智力的任務,因為我們缺乏關於意識的科學理論。

英國倫敦帝國理工學院認知機器人研究者穆雷沙納罕指出,我們應該避免混淆「認知」和「意識」這兩種概念。「探究意識確實是一門迷人且重要的課題,但我認為,意識對於人類水平的人工智慧來說並不是必要的。」我們最終可能會製造出極其聰明的AI,但它不能通過主觀的自我意識去感受這個世界。不能僅僅因為一台機器通過了「圖靈測試」(由計算機科學和密碼學的先驅阿蘭麥席森圖靈提出,其內容是,如果電腦能在5分鐘內回答由人類測試者提出的一系列問題,且其超過30%的回答讓測試者誤認為是人類所答,則電腦通過測試),就認為它有意識。先進的AI留給我們的印象是它們是有意識的,但是再先進的AI對於自己的認識也不會比一塊石頭或一個計算器更多。

誤區3「超級人工智慧會很友好。」

哲學家康德認為,智能與道德密不可分。神經學家David Chalmers在他的論文《非凡的哲學分析》中吸取了康德的這個觀點,並將其運用於人工智慧的提升理論中。

如果這個觀點是正確的話,我們可以想到,AI會因智力爆發性增長出現道德感急劇升高的狀況。那麼,ASI(超級人工智慧機器人)系統變得超級智能的同時,也會具有無上的道德感,因此我們可以認為它們是「善良的」。

但是,這個「先進的AI從本質上將是好的、開明的」的觀點其實是站不住腳的。比如智力和道德感之間的關係在人類中貌似就不存在,該假設在其他智能形式中,恐怕同樣也難以成立。

誤區4「 簡單的程序修補就能解決AI的控制難題。」

假設創造出比人類更偉大的AI,我們將面臨一個嚴重的問題,那就是控制問題。如何在家裡安置以及控制它們?如何確保它們對人類是友好的?理論家對此完全不知所措。最近,美國喬治亞理工學院的研究人員甚至天真地認為,AI可以通過閱讀簡單的故事來學習人類的價值觀和社會習俗。但這可能遠不是讀幾個小故事能解決的問題。這就好比試圖給複雜的人類喜惡確定一個簡單膚淺的定義,要麼就是把複雜的人類價值觀生硬地壓縮成一個簡單的字詞或想法。

研究者說,「並不是說這些簡單的技巧是沒用的。這些對策里有些東西給研究指明了道路,對解決這個終極難題有所幫助。但這些還只是想法,具體的操作還需要做更多的研究工作。」

但沒有任何證據表明我們會被AI毀滅或無法控制它們。正如AI研究者Eliezer Yudkowsky所說:「AI既不會恨,也不會愛,但人類是由原子構成的,除了智能以外,人類還有感情。」只是目前沒有什麼事是可以確定的。沒人知道AI是否會或將採取什麼行動以及如何威脅到人類。正如人工智慧可以用來控制、調節和監視其它人工智慧,也許人類也可以給它灌輸人類的價值觀,使之毫無保留地對人類保持友好。

而且高度智能化的系統在一些特定領域內是無人能及,但在此領域之外,也可能會變得極其無知。比如谷歌的DeepMind系統精通圍棋,但除圍棋以外,它在其他方面沒有探索的理性和能力。

誤區5「超級人工智慧(ASI)很聰明,不會犯錯。」

AI研究者兼Surfing Samurai機器人開發者Richard Loosemore認為,大多數假設的AI毀滅世界的情景都不符合邏輯。他指出,如果AI打算毀滅人類時,那它一定會產生很多邏輯矛盾,也會因此摧毀自己的知識庫,導致自己變得愚蠢,而不足以對我們造成傷害。但就職於牛津大學人類未來研究所的皮特麥金泰爾和斯圖爾特阿姆斯特朗卻認為,從邏輯上來說,人工智慧將很大程度上受到編程的限制,所以它們也會犯錯誤,只是要看這個「錯誤」的定義是什麼。

「從定義上講,超級人工智慧(ASI)是一個擁有智力的載體,它在各個相關領域都要比最優秀的人類大腦更聰明。它將十分清楚我們用它們來做什麼,也將能理解人類的意圖。」把人類未來的困境與老鼠的困境相比較,我們會更容易理解。人類明白老鼠的目的,是想要在人類居所尋求食物和棲息地,但人類卻對此漠不關心,甚至不希望它們存在於自己的居室——超級智能系統也知道人類想要的,但它們仍然會對此漠不關心。這算不算一種錯誤?

誤區 6「 我們不應該害怕AI。」

不加鑒別發布消息的媒體和好萊塢電影比如《終結者》系列,都可能使我們對機器人的誤解更進一步加深。比如,如果一個超級人工智慧「天網」,想要毀滅人類,它不會使用端著機槍的機器人。它們還可以有更高效的辦法,如散播瘟疫,引發納米級灰霧災難,甚至僅僅只需要破壞掉大氣層。人工智慧有潛在的危險,不是因為它所昭示的機器人的未來,而是它在世界上的自我定位。

誤區7「未來的AI和科幻小說里的AI是相同的。」

科幻作品被作家和未來主義者們用來預測美好的將來,但ASI所帶來的圖景可能完全不是一回事。更重要的是,與人類本性不同的AI不會讓我們知道並預測它們確切的本性和形式。

科幻作品考慮到我們人類是弱小的,大多數AI被設定得與人類很類似。有一些觀點認為,即使是在人類中,也存在著多種類型的心智模式——你和你的鄰居就是不同的——但人與人之間的心智區別同其他可能存在的心智形式相比其實是微不足道的。當然,大多數科幻小說旨在講一個引人入勝的故事,難免不夠科學、準確,科幻小說中的衝突往往是存在於實力接近的實體之間,但有科學家預測,「沒有意識、喜樂或仇恨的AI可能會毫無阻力地消滅所有的人類,達到一個本身很無趣的目標」,只是這樣的場景放在電影里,可以想見會有多無聊。

誤區 8「AI將會搶走我們所有的工作。」

人工智慧把我們大部分的工作自動化,這和它能毀滅人類的潛在性,其實是兩件完全不相關的事情。但毫無疑問,人工智慧將取代很多現存的職業,包括從車間工人到高級白領。一些專家預測,在不久的將來,美國有一半的工作將被自動化所取代。在未來的幾十年里,AI還將抹殺許多工作職位,但這並非不是好事,例如,自動駕駛汽車將取代卡車司機,這樣可以節約運輸成本,使貨物的價格更便宜。而從中省下的錢又可用於其它的商品和服務,這可以為人類創造新的就業機會。

這意味著我們並不是沒有能力應付局面。只是可能出現最理想的情況——無論是腦力勞動者還是體力勞動者,都從勞役中解放了出來。總之,人工智慧的進步將引領其它領域的進步,特別是製造業的進步。在未來,它將更容易滿足我們的基本需求,而不是相反。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 漲知識學院 的精彩文章:

關於飛機你應該知道的常識
注意了,這些果蔬更容易農殘超標
古代生孩子為何都要燒開水,古人的智慧真不是開玩笑!
我們的祖先有多好戰?取決於他們的謀生方式

TAG:漲知識學院 |