為了控制人工智慧,我們需要了解更多關於人類的信息
Gillian Hadfield是一個扁平世界的規則的作者以及南加州大學的法學和經濟學教授。他主要研究類似:為什麼人類發明了法律,以及為何全球經濟如此複雜等問題。最近他寫了一篇關於人工智慧的文章,觀點很有意思,我對全文進行了編譯。
從科學怪人到自我,機器人,幾個世紀以來,我們一直對創造能發展自主和自由意志的生物感到好奇和恐懼。
現在,我們正站在越來越強大的人工智慧時代的尖端,我們迫切需要開發各種方法來確保我們的創意永遠做我們想讓他們做的事情。
對於人工智慧領域的一些人,比如馬克?扎克伯格來說,人工智慧正變得越來越好,如果出現問題,技術將會解決這些問題。
但對於像埃隆·馬斯克這樣的人來說,現在是時候開始思考如何監管強大的機器學習系統了。
在這一點上,我和馬斯克在一起。
不是因為我認為好萊塢喜歡嚇唬我們的末日場景就在眼前,而是因為扎克伯格堅信我們可以解決未來的任何問題,這取決於馬斯克堅持認為我們需要「儘可能多地學習」。
我們迫切需要了解的事情之一,不僅僅是人工智慧是如何工作的,還有人類是如何工作的。
人類是地球上最精密的合作物種。
在認知和交流中,我們戰勝了其他所有的動物——這些工具使我們能夠分工和共同生活,而我們必須依靠他人來完成自己的使命。
這就是我們的市場經濟和政府體系的全部意義所在。
但是複雜的認知和語言(已經開始使用的語言),並不是使人類在合作中如此成功的唯一特徵。
人類也是唯一一個發展出「群體規範」的物種——一套複雜的規則和規範體系,規定了人們可以接受的、不可接受的行為,並通過集體努力來懲罰那些違反規則的人。
許多這樣的規定可以由監獄和法院的官員執行,但最簡單、最常見的懲罰是在團體中實施的:批評和排斥——拒絕在公園、市場或工作場所玩,與那些違反規範的人一起玩。
當談到人工智慧自由意志的風險時,我們真正擔心的是他們是否會繼續玩下去,並幫助執行我們的規則。
到目前為止,人工智慧社區和捐助者資助的人工智慧安全研究——像馬斯克和幾個基金會這樣的投資者——主要求助於倫理學家和哲學家,來幫助他們思考如何構建一個能帶來良好效果的人工智慧。
像Nick Bostrom這樣的思想家提出了關於人工智慧和人工智慧研究人員應該關心的重要問題。
但我們複雜的社會規範,與其說是道德選擇,不如說是關於如何協調數十億人每天在如何行為上做出數以百萬計的選擇。
這種協調是如何完成的,是我們無法真正理解的。
文化是一套規則,但它的改變——有時是緩慢的,有時是很快的——是我們還沒有完全理解的東西。
法律是另一套規則,我們可以簡單地在理論上改變,但在現實中就不那麼重要了。
因此,對於我們這一群體的新成員來說,人工智慧是引起懷疑的原因:他們了解和理解什麼,是什麼激勵著他們,他們對我們有多大的尊重,他們願意為衝突找到建設性的解決方案嗎?
如果人工智慧系統是用來讀取和參與系統的,那麼它將只能集成到我們複雜的規範系統中。
在未來,人工智慧更加普及,人們將會定期與機器互動——有時甚至不知道它。
當一些汽車是自動駕駛的,並且互相交談而不是我們的時候,我們願意駕駛或遵守交通法規會發生什麼?
我們會不會相信機器人會照顧我們在學校里的孩子,或者照顧我們年邁的父母在養老院?
社會心理學家和機器人專家正在思考這些問題,但我們需要對這類問題進行更多的研究,更多地關注系統的功能,而不僅僅是單個機器或過程的設計。
這將需要那些考慮規範系統設計的人的專業知識。
我們是否已經準備好了開始構建自己的規範系統的人工智慧系統——它們自己的規則,即機器可以接受和不可接受的行為——以便協調它們自己的互動?
我預計這種情況將會發生:與人類一樣,人工智慧也需要有一個基礎來預測其他機器將會做什麼。
我們已經看到了人工智慧的出現,他們通過創建自己的語言來提高他們在合作任務上的表現,從而給他們的開發者帶來了驚喜。
但Facebook關閉合作的能力——開發出一種人類無法遵循的語言——未必是一種永遠存在的選擇。
正如人工智慧研究人員斯圖亞特?拉塞爾強調的那樣,智能機器將會發現,如果它們死了,它們就無法完成人類的任務——因此,我們現在必須開始思考如何設計系統,確保它們繼續重視人類的投入和監督。
要打造智能機器,遵循多個、衝突的、有時還不成熟的人類群體的規則,我們需要更多地了解是什麼讓我們每個人每天都願意這麼做。
※Facebook也有大麻煩,孵化出的社交產品沒有一款成功的
※馬雲改變了銀行,雷軍改變了手機,劉強東想要改變的是房地產!
※一台iPhone X能買多少小米產品?答案真的令人太吃驚
※iPhone 8預約量僅50萬!人傻錢多?中國消費者只想買最貴的手機
※探索頻道首部遊戲題材紀錄片Game Vision 即將在中國首播
TAG:俊世太保 |