當前位置:
首頁 > 科技 > 機器人逐漸有了意識,對人類來說意味著什麼?

機器人逐漸有了意識,對人類來說意味著什麼?

對人類來說,我們在電影里常看到的殭屍和外星人可能並不是什麼真正存在的威脅,但我們卻不能忽視另一種經常在電影里看到的反派人物,那就是有意識的機器人。他們的到來可能只是時間問題。但是,當真正的有意識機器人出現時,世界會變成什麼樣呢?到那時,人類還有生存空間嗎?

近幾年,人工智慧的研究領域在經歷著一場革命。現在,人工智慧系統可以在圍棋上勝過人類,在識別人臉,安全駕駛等領域都有非凡的成果。大多數研究人員認為,真正有意識的機器人(不只是運行固定程序程序,而是有情感和自我意識的機器)或許還有幾十年的時間就會出現。機器需要學習推理能力,和強大的泛化能力,才能學習更多的知識。只有機器擁有這樣的能力後,人工智慧才能達到掌握意識所需的複雜程度。

但一些人認為,並不用幾十年那麼久,我們或許很快就能看到有意識的機器人出現。

德克薩斯大學的計算機科學家賈斯汀哈特說:「人們認為自我意識將成為人工智慧的終極遊戲,而實際上,沒有任何的科學追求是從終極目標入手來進行研究的。」賈斯汀和其他研究人員已經在研究具有基本思想的機器人。他們設計了如同新生嬰兒一樣的機器人,機器人能夠學習理解自己的身體構造,看到新的事物會呀呀亂叫,而當人類碰到它時機器人會哭泣,這都像新生嬰兒的行為。這些機器人已經開始探索自己的世界。

機器人沒有內在的情感體驗,它們不會因為地板拖得乾淨而自豪,也不會因為身體流過120伏特的電流而開心。但是,機器人現在可以學習一些類似人類擁有的品質,包括同理心、適應能力和進取心。

不再沉迷於創造很酷的機器人,研究人員開始研究擁有控制論(Cybernetic,控制論是研究各類系統的調節和控制規律的科學)系統的機器人,試圖解決機器學習系統長期以來的缺陷。機器學習系統或許功能很強大,但它們卻是不透明的。它們的工作原理就是將輸入關聯到輸出,這就像在「A」和「B」欄中做匹配連線一樣,人工智慧系統基本記住了這些關聯關係,他們給出的答案背後沒有更深層次的邏輯。這一直是機器學習系統存在的問題。

人類是很難讀懂的物種。我們花了大量的時間來分析自己和他人,可以說,這是我們的意識思維在起作用。如果機器也有思想,它們可能就不會那麼神秘了,如果我們想要了解機器,就可以直接問他們。

位於紐約州特洛伊的倫斯勒理工學院的人工智慧研究人員SelmerBringsjord說,「如果我們能理解一些人類大腦意識的結構,我們就能夠讓機器學習一些有趣的能力。」儘管科幻小說會讓人類懼怕有意識的機器人,但其實,即使是暫時無意識的機器人,我們也需要小心謹慎,而有意識的機器人則可能會成為我們的盟友。

機器人,認識自己

如今,自動駕駛汽車擁有一些最先進的人工智慧系統。它們決定車輛駛向何方,決定何時剎車,通過持續的雷達和激光探測來收集數據,並將數據輸入到演算法中。但自動駕駛技術希望在車輛駕駛時,車輛能自動演習和自主防禦突發事故,這就是與意識相關的能力。

巴塞羅那龐貝大學的神經學家PaulVerschure說,「自動駕駛汽車需要推測出附近的自動駕駛車輛下一步的行為。」

為了展示這一內在原理,哥倫比亞大學的工程學教授HodLipson(HodLipson教授同時也是一本關於自動駕駛汽車的書的合著者)和韓國首爾世宗大學的kyung-joongKim進行了一個實驗,研發了一個「發瘋」的機器人司機。在實驗中,有一個小型的圓形機器人(大約相當於冰球的大小)按照自己的運動邏輯在一個環形軌道上移動。然後,這個「發瘋」的機器人司機總是要在第一個圓形機器人啟動時攔截它,因此「發瘋」機器人就無法按照固定的路線運動,它必須預測到第一個圓形機器人的運行軌跡。

通過模仿達爾文進化理論,Lipson和Kim設計了一種攔截策略。Lipson說:「實驗的機器人基本上已經發展了一個行為者的大腦,也許不夠完美,但已經足夠讓它預測對方的行為了。」

Lipson的團隊還設計了另外一個機器人,這個機器人可以對自己的身體構造進行學習理解。這是一隻四足蜘蛛的機器人,它的大小約相當於一只大狼蛛的大小。當蜘蛛機器人啟動後,其內部程序沒有記錄任何關於自身的信息。Lipson說:「它不知道它的發動機是怎樣的構造,也不知道身體的運動邏輯是如何設計的。」但它有學習的能力,它能觀察到自己發生的所有動作。例如,它能觀察自己是如何操作某個馬達來讓一條腿彎曲的。Lipson說:「就像一個嬰兒一樣,嬰兒是會亂動的。」「它以一種隨機的方式移動馬達。」

四天後,這個蜘蛛機器人已經意識到它有四條「腿」(馬達),並弄清楚了如何協調和移動才能讓自己滑過地板。當Lipson卸掉其中一個馬達時,機器人能夠意識到自己現在只有三條腿,因此原來的行為不會再產生預期的效果。

Lipson說:「我認為這個機器人有一種非常原始的自我意識。」這是另一種類似人類的能力,是研究人員想要建立在人工智慧的基礎上的。AlphaGo之所以能在圍棋之戰中脫穎而出,是因為人類研究人員引導機器贏得比賽。機器自己不能自己定義問題,因為定義問題通常是很困難的部分。

一位神經學家RyotaKanai和一家位於東京的創業公司的創始人即將發表一篇論文——「認知科學的趨勢」,他們在論文中討論了如何給機器內在的動力。在一次演示中,他和他的同事展示了在虛擬環境中駕駛一輛汽車Agent,Agent需要攀爬一座陡峭的山,而這座山太過陡峭,只有在助跑的情況下才能爬上去。Aagent收到命令要爬上山時,它會想出辦法。在接到這個命令之前,Agent就一直閑置著。

然後,Kanai的團隊給這些虛擬的Agent增加了「好奇心」機制。Agent勘測了山的地形,將登山視為一個待解決的問題,並且在沒有任何指示的情況下就找到了如何攀爬的方法。

Kanai說:「我們沒有給Agent設定任何目標。」「Agent只是在自己探索環境,通過對自身行為的後果做出預測,來了解自己的處境。」關鍵是要給機器人足夠的內在激勵,讓它們更好地解決問題,而不是讓它們選擇放棄,離開實驗室。機器可以像人類一樣固執。JoschaBach是哈佛大學的人工智慧研究員,他把虛擬機器人放進了「Minecraft」——Minecraft里堆滿了美味但有毒的蘑菇,Bach希望Agent能自己學會避免犯錯誤,如同在Minecraft里一樣,如果機器不知道避開有毒的蘑菇,就會吃下毒蘑菇而中毒。

Bach說:「如同人類一樣,此刻的行為對未來會造成什麼影響,機器並不在乎。」他們可能只是覺得這些蘑菇非常好吃,所以必須向機器灌輸一種天生的厭惡感。從某種意義上說,機器必須學會價值觀,而不僅僅是理解目標。

注意力機制

除了自我意識和自我激勵之外,意識的一個關鍵功能是集中注意力。在人工智慧研究領域,選擇性注意力一直是一個重要領域,AlphaGo的創造人谷歌DeepMind團隊在這一領域有深入研究。

「意識是一種注意力過濾器。」孟菲斯大學計算機科學教授斯坦利富蘭克林說到。在去年發表在生物學上的認知結構雜誌上的一篇論文中,富蘭克林和他的同事們回顧了他們創造的一個名為LIDA的人工智慧系統,這一系統通過競爭機制來選擇出需要集中精力的地方,演算法採納了20世紀80年代的神經學家BernardBaars所提出的方法。競爭過程中機器系統會觀察一些有趣的刺激物——響亮的、明亮的、奇異的刺激物,然後這些刺激物爭奪主導地位。在競爭中勝利的刺激物,決定了人們的精神集中在哪裡,隨後通知機器系統的「大腦」,告知「大腦」注意力應該放在哪裡,隨之告知更多的大腦功能,包括控制思考和運動的部分。感知、注意力和動作的循環每秒鐘重複5到10次。

LIDA的第一個版本是美國海軍的工作匹配伺服器。它會閱讀郵件,注意力集中在切題的郵件上——涉及求職者的興趣、工作的難度和政府官僚機構的工作要求這一些郵件。

從那以後,富蘭克林的團隊就利用這個系統來模擬動物的大腦,特別是那些每次只專註於一件事的行為習慣。例如,LIDA和人類一樣容易出現一種奇怪的心理現象,即「注意力盲點(attentionblink)」——當某件事吸引了你的注意力時,你會在大約半秒的時間裡忘記其他事情。這個認知盲點取決於很多因素,而LIDA則表現出類似人類的反應。

一位芬蘭的人工智慧研究人員PenttiHaikonen,根據類似的原則建立了一個名為XCR-1的機器人。Haikonen認為,他創造的XCR-1能夠擁有真正的主觀體驗和基本的情感。

XCR-1機器人擁有聯想的能力,這與我們大腦中的神經元非常相似。當我們展示了給XCR-1機器人一個綠色球,並對它說出「綠色」這個詞,那麼XCR-1機器人的視覺和聽覺模塊會做出反應,將看到的綠色球和「綠色」這個詞聯繫起來。如果Haikonen再次說「綠色」,那麼XCR-1機器人的聽覺模塊將會做出反應,通過記錄的聯繫,視覺模塊也會「回憶」起來「綠色」對應的樣子,就如同它真正聽到了這個單詞,看到了它的顏色一樣。

相反,如果機器人看到了綠色,它的聽覺模塊會做出反應,哪怕它沒有真正「說出」這個詞。簡而言之,機器人會產生一種聯覺(synesthesia)。

Haikonen說:「如果我們看到一個球,我們可能會對自己說:喔,那是一個球!在那一刻,我們的感覺就如同我們真正聽到了這個詞一樣,但其實我們只是看到了它。」「xcr-1也是一樣的。」

當聽覺和視覺模塊發生衝突時,事情會變得有趣。例如,當視覺模塊看到綠色,而聽覺模塊聽到「藍色」時,如果這時是聽覺模塊佔了上風,那麼整個系統就會把注意力轉移到它聽到的單詞上——「藍色」,而忽略了它所看到的顏色——綠色。機器人有一種簡單的意識流,它由一種瞬間支配的知覺組成:「綠色」、「球」、「藍色」等等。當Haikonen把聽覺模塊連接到一個語音引擎時,機器人會自己默默對自己說出它所看到和感覺的一切。

Haikonen還將振動設為機器人的「痛點」,它可以搶佔其他感官作為輸入,佔據機器人的注意力。在一次演示中,Haikonen輕拍了機器人讓其針對,然後機器人就突然地說:「我受傷了」。

Haikonen說:「因為某些原因,有些人會受到情感上的困,對這些作品並不感冒,認為這是不好的機器人。」

一個新物種

基於早期的努力,研究人員將開發出更逼真的機器人。我們可以看到意識系統的連續統一體,就像自然界中存在的一樣,從單細胞生物、狗到黑猩猩,再到人類和其他物種。這項技術的逐步發展是好的,因為它給了我們時間來適應:未來有一天,我們不再是地球上唯一的先進生物。

在很長一段時間裡,我們創造的人工智慧機器很脆弱,與其說它們會威脅到人類,不如說是我們創造出來的新寵物。如何對待它們,將取決於我們是否意識到他們是有意識的,機器是否有能力忍受痛苦。

康涅狄格大學的哲學家蘇珊施耐德說:「我們之所以重視非人類的動物,是因為我們在他們身上看到了意識的存在,就像人類自己也是基於我們自己的意識存在的。」蘇珊施耐德研究人工智慧的含義。事實上,她認為我們故意不去創造有意識的機器,以避免它所造成的道德困境。

施耐德說,「如果你在創造有意識的機器人系統,讓它們為我們工作,這就很像是在實行奴隸制度。」出於同樣的原因,如果我們不賦予先進的機器人感知能力,機器人對人類的威脅可能是更嚴重的,因為沒有意識的機器人不會自己思考,它們無法思考出任何理由要和人類站在同一立場,承認並珍視人類。

從我們目前所看到的情況來看,有意識的機器將會繼承人類的弱點。如果機器人必須預測其他機器人的行為,它們就會把彼此當作有組織的生物來對待。像我們一樣,他們可能會開始認識一些無生命的物體:雕塑動物、雕像和風。

去年,北卡羅來納大學的社會心理學家庫特格雷和DanielWegner在他們的「心靈俱樂部」中提出,這種本能是宗教的起源。Verschure說:「我期待電影中出現機器人自己發展的宗教,因為我們已經為它們設計了意識偏好,讓它們成為社會的一部分。」「但他們的意識偏好可能先起作用了。」

這些機器將大大超出我們解決問題的能力,但並非所有事情都是可以解決的問題。他們可能會沉迷於自己的意識體驗中,隨著機器人感官感知範圍的擴大,他們會看到一些人類並不相信的東西。

Lipson說:「我不認為未來的機器人物種會像我們想的那樣冷酷無情。」「他們可能會有我們永遠無法理解的音樂和詩歌。」

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器人庫 的精彩文章:

成本降低,未來10年工業級機器人市場將增長200%
屢戰高輻照攔路虎 核電機器人應用市場待掘
人工智慧能否智勝未來?
教育+AI,在於場景化的真實需求
2017年度最具商業價值人工智慧公司TOP50 榜單發布

TAG:機器人庫 |

您可能感興趣

如果外星人和人類見面,那麼對人類將意味著什麼?
人類將擁有「自我意識」的機器人,了解你的一切,像你一樣思考
人類和宇宙之間存在著怎樣的聯繫,是不是因為有了人類,宇宙才具有了意義?
狗狗當起戲精來,可就真沒人類什麼事兒了,讓人哭笑不得
它是人類面對的極為嚴峻的威脅,不解決它人類就沒有未來
意識是人類特有的嗎?
人類未來的發展竟會是這樣,出乎意料!
這次克隆成功猴子,對我們來說意味著什麼?簡直是人類的福音!
反派的魅力!他讓人恨之入骨,卻為人類帶來了黎明!
中國機器人工業崛起 對人類來說意味著什麼?
從神到鬼,從機器人到外星人,只有你不敢想的,沒有人類不敢愛的!
未來的機器人是不會像人類的,因為人類沒那麼優秀呀
人類的未來會是什麼樣的?
不受人們喜愛的烏鴉居然做出了這樣的一件事,結果人類的臉都紅了!
人類的終極目標是什麼?既然一切都要走向終結人類存在的意義在哪裡?
人類生命的意義是什麼?愛因斯坦有著驚人的想法
用人類的方式認識世界的機器人,看起來有點蠢萌
如果人們再不做出改變,這樣的海底就是人類的未來
帶「狗」字的成語就沒什麼好詞?你們人類是不是對汪星人有誤會?
如果貓的思想真的這樣,人類將會怎樣