當我們在過春節時,人工智慧在做什麼?
告訴大家一個好(or 壞?)消息,假期要結束啦!據說,今日忌狂歡,宜收心。收心第一步,看看過年期間,人工智慧領域都發生了些什麼……
人工智慧又雙叒叕戰勝人類
1月30日,在賓夕法尼亞州匹茲堡的 Rivers 賭場,卡耐基梅隆大學 ( CMU )開發的人工智慧系統 Libratus ,在共計 12 萬手的一對一無限注德州撲克比賽中擊敗了四名頂級人類玩家 Jason Lee、Dong Kim、Daniel McAulay 和 Jimmy Chou,斬獲 20 萬美元獎金。
Libratus 在德州撲克人機大戰中獲得最終的勝利,是人工智慧領域的巨大成就。在德州撲克的對局裡,任意時間,任何一個玩家都只能觀察到一部分的情況,所以在玩撲克的過程中需要推理能力,而這對於機器來說很難模仿。現實世界中,不完美信息才是常態,各種看不見的隱藏信息產生了大量的不確定性,而德州撲克代表的就是這種類型的博弈。
阿法狗:拋棄人類棋譜套路
谷歌旗下 Deepmind 公司在德國慕尼黑的 DLD 創新大會上正式宣布,將推出真正的2.0版 AlphaGo。新版 AlphaGo 將正式摒棄人類棋譜,只靠計算機自身深度學習的方式成長——即探索「深度學習」方式的極限,臻至「圍棋之神」的境界。2.0版的 AlphaGo,將通過數學模型下的自我對局和深度學習,下出真正屬於人工智慧(AI)的圍棋。
在2017年開年,化身 Master 的 AlphaGo 風捲殘雲完成60勝,唯一一場平局還是因為對弈者掉線。當時「棋聖」聶衛平就表示:「圍棋遠不像我們想像的那麼簡單,還有巨大的空間等著我們人類去挖掘。阿法狗也好,Master 也罷,都是『圍棋上帝』派來給人類引路的。」而柯潔則說他一夜無眠,「人類千年的實戰演練進化,計算機卻告訴我們,人類全都是錯的……」
既然人類的圍棋智慧如今落入下風,那麼人工智慧會帶來怎麼樣的圍棋變革呢?
這個咖啡廳沒有服務員
近日,機器人咖啡師出現在舊金山一家名叫「Café X」的咖啡廳。你可以用手機、平板預定咖啡,預定之後,Cafe X 發送一則消息到移動設備,上面有4位驗證碼,你在機器人販售機中輸入就可以。此時機器臂從8個加熱站上抓取1個杯子,將其放在小架子上,然後你就可以取走咖啡了。整個過程耗時不到1分鐘。
機器人律師來了
俄羅斯最大的銀行——Sberbank 最近宣布他們將推出一個機器人律師,這個機器人的任務就是處理各種投訴信件。這項創新將導致大約 3000 名在銀行工作的專家被炒魷魚。該銀行於 2016 年第 4 季度推出機器人律師,並且將在 2017 年的頭幾個月里實現完全機器人化。
Sberbank 執行委員會副董事長 Vadim Kulik 表示:最終所有的常規法律文件的處理都將自動化,而只允許律師處理那些緊急的法律程序。
可以暫時鬆一口氣了,因為機器人還沒完全取代人類律師,不過離完全替代這一天還有多遠呢?
AI 醫生診斷癌症?
斯坦福大學的研究者開發出一個診斷皮膚癌的 AI 演算法,並且診斷結果達專家水平,該研究的相關論文已經發表在Nature上。「在我們的實驗中,通過學習,深層卷積神經網路可以由圖像和疾病名稱識別疾病。並且,結果可與通過職業認證皮膚科醫生的診斷媲美。」
看到上面這些,有沒有感到焦慮呢?
論跑,人跑不過馬;論飛,人飛不過鷹;論力量,人更是不如老虎、獅子。但人有智力,所以高高站在生物鏈的頂端。而現在,人工智慧開始在越來越多的領域超越人類,如果有一天人工智慧完全超過人類,那麼人類該如何自處?
焦慮是正常的,霍金不也常常警告我們說「人工智慧或將威脅人類生存」嘛。
但也要保持樂觀,聰明的人類可不會讓自己處於這種境地。所以規範人工智慧的發展勢在必行。
這不,在1月初舉行的 Benificial AI 2017會議上,1980名來自產業、學術和研究界的 AI 相關人士就共同制定了確保 AI 健康發展的「23條原則」。
確保 AI 健康發展的「23條原則」
研究問題
1. 研究目標:人工智慧研究的目標應該是創造有益的智能,而不是讓它像經歷生物演化一樣沒有確定的發展方向。
2. 研究資金:投資人工智慧應該附帶確保該研究是用於發展有益的人工智慧,包括計算機科學、經濟學、法律、倫理和社會研究中的棘手問題,例如:
我們如何使未來的 AI 系統具有高度魯棒性,這樣才能夠讓它們在沒有故障或被黑客入侵的情況下做我們想要它們做的事情?
我們如何通過自動化實現繁榮,同時不打破資源和目的的平衡?
我們如何更新法律制度實現更大的公平和更高的效率,跟上AI的發展步伐,管控與AI相關的風險?
AI應該具有怎樣的價值觀,應該具有何等法律和倫理地位?
3. 科學政策互聯:AI 研究人員和政策制定者之間應該進行有建設意義、健康的交流。
4. 研究文化:應該在AI研究者和開發者中培養合作、信任和透明的文化。
5. 避免競賽(Race Avoidance):開發 AI 系統的團隊應積極合作,避免在安全標準方面進行削減。
倫理和價值觀
6. 安全:AI 系統應該在整個使用周期內安全可靠,並在可行性和可用性方面有可驗證的衡量標準。
7. 故障透明度(Failure Transparency):如果 AI 系統造成傷害,應該可以確定原因。
8. 司法透明度:任何涉及司法決策的自主系統都應對其判斷提供合理的解釋,並由主管人權機構審核。
9. 責任:先進人工智慧系統的設計師和建設者是使用、濫用這些系統以及這些系統行動造成的道德影響的利益相關者,他們有責任和機會塑造這些影響。
10. 價值觀一致性:在設計高度自治的人工智慧系統時,應該確保它們的目標和行為在整個操作過程中與人類的價值觀相一致。
11. 人類價值觀:人工智慧系統的設計和運行應與人類尊嚴、權利、自由和文化多樣性的理念相一致。
12. 個人隱私:由於 AI 系統能夠分析和利用人類產生的數據,人類也應該有權獲取、管理和控制自身產生的數據。
13. 自由和隱私:AI 應用個人數據,其結果不能不合理地限制人類真實或感知到的自由。
14. 共享利益:人工智慧技術應當惠及和增強儘可能多的人。
15. 共享繁榮:人工智慧創造的經濟繁榮應該廣泛共享,為全人類造福。
16. 人類控制:應該由人類選擇如何以及是否委託人工智慧系統去完成人類選擇的目標。
17. 非顛覆(Non-subversion):要控制先進的人工智慧系統所帶來的力量,應當尊重和改善社會健康發展所需的社會和公民進程,而不是顛覆這種進程。
18. AI 軍備競賽:應該避免在致命的自動武器開發方面形成軍備競賽。
長期問題
19. 能力注意(Capability Caution):在沒有共識的情況下,應該避免對未來AI能力上限做出較為肯定的假設。
20. 重要性:先進 AI 可能代表了地球上生命發展歷史的一大深刻變化,應該通過相應的關懷和資源對其進行規劃和管理。
21. 風險:人工智慧系統帶來的風險,特別是災難性或有關人類存亡的風險,必須遵守與其預期影響相稱的規劃和緩解措施。
22. 不斷自我完善(Recursive Self-Improvement):對於那些不斷自我完善或通過自我複製以能夠快速提高質量或數量的AI系統,必須採取嚴格的安全和控制措施。
23. 共同利益:超級智慧只應該為廣泛共享的倫理理想服務,為了全人類而不是一個國家或組織的利益而發展。
相比1940年阿西莫夫提出的「機器人三原則」,這23條原則顯得更為實際、具體。當然,規範人工智慧發展之後並不意味著我們可以高枕無憂,我們個人還是應該為人工智慧時代的到來做好準備。
—— 人工智慧時代,你該怎麼做?
——終身學習,與時俱進!
※內向的研究者如何「自我推銷」?
※看見黑洞的四種方法
※你今年的春節假期有多長?
※徐州醫科大學張道永教授課題組青年教師、博士後及研究助理招聘
TAG:科研圈 |
※當我們無聊時,我們在幹什麼?
※當我們不做愛時,我們在做什麼?
※當我們在說復古風的時候,我們在說什麼?
※當我們羨慕別人的時候,我們在羨慕什麼?
※當我們在談論性與愛的時候,我們在渴望什麼?
※當我們在追逐金錢時,我們真正在乎的是什麼?
※當我們在嫉妒的時候,我們在防禦什麼
※當我們接過別人的話時,大腦在做些什麼?
※當我們在說裝修設計時,我們在說什麼?
※當我們在說「我們」時,意味著什麼?
※當我們說祝福的時候,我們到底在說什麼?
※當我們買假貨時,我們在買什麼?
※當我們談自由的時候,我們都在談什麼?
※當我們在談論時裝的時候,我們在談論什麼?
※當我們跑步的時候我們在想什麼?
※當我們在談論薛之謙復不復婚時,我們在談什麼?
※當我們在票圈曬美食的時候,我們在曬什麼?
※當我們談珠寶的時候,我們在談什麼?
※當我們在討論奢飾品行業時,人工智慧可以做什麼?