當前位置:
首頁 > 最新 > 科技大佬達沃斯論道人工智慧

科技大佬達沃斯論道人工智慧

數據隱私,AI帶來的職業衝擊,大公司的壟斷,自動化,機器學習……在剛剛結束的2018世界經濟論壇年會(達沃斯論壇)上,人工智慧相關的議題成為了各界人士討論的焦點。

隨著人工智慧的快速發展,當今世界的產業格局和經濟發展模式正在被重新書寫,如今的人工智慧發展處於何種水平?未來它又會給我們的生活和工作帶來怎樣的影響?

中國成AI領域重要參與國

目前,中國作為人工智慧的一個重要參與國,已成為全球人工智慧領域的第二吸金地,僅次於美國。

「雖然說頂尖的人工智慧專家還是以美國為主,但是由於一大批年輕工程師的崛起,中國的速度遠遠超過了歐美的總和。在幾年內達到和美國共同引領世界人工智慧是可以期待的。」創新工場董事長李開復在參加達沃斯論壇期間說道。

李開復認為,除了政策層面人工智慧被提上國家議程之外,中國還有一流的理工科教育,並培養了一大批這些領域的傑出年輕人,以及龐大的數據量,最後,還擁有良好的創業氛圍和資本的大量投資,基於這幾個因素,中國快速直追,在幾年內達到和美國共同引領世界人工智慧是可以期待的。

與他持類似觀點的,還有百度總裁張亞勤。他認為,中國的AI領域雖然在人才方面(較美國)落後了一些,但差距正在縮小。而且,中國在技術上具備結構化優勢,就規模和資本而言,在科技領域處於領先地位,同時還擁有一個更好的監管環境。

過去的一年,人工智慧的發展如火如荼,中國已成為該領域重要的競爭者,並緊追領頭羊美國。

根據「烏鎮指數」暨《全球人工智慧發展報告(2017)》,2000~2016年,中國人工智慧融資規模累計達27.6億美元。其中2014~2016年三年是中國人工智慧發展最為迅速的時期。在這三年里人工智慧融資規模佔總數的93.59%,投資頻次佔總數的87.22%,遠高於以色列和印度。

對於中國在AI領域的參與度,斯坦福大學人工智慧實驗室主任、谷歌雲首席科學家、谷歌AI中國中心負責人李飛飛也直言, 「大家公認中國已成為人工智慧的一個重要參與國,這裡也很大程度上因為政府強有力的支持,國民性的數理文化,和巨大的數據和應用場景。」

多少工作將被AI替代?

在人工智慧快速發展的同時,人類的工作也勢必會受到影響。這個數字在麥肯錫看來是4億~8億。麥肯錫強調說,這並不意味著失業數據會呈現這麼大的下滑,而是說很多工作的任務被機器取代之後,工作的時間和待遇都會大幅度下滑。很多人想換個好點的工作,但他們卻又沒有足夠的才能。而才能的要求(因為AI能力提升)會越來越高,甚至讓很多人對升級無望。

對於這一點,李開復也發表了自己的見解。他認為,未來重複性的工作崗位被取代的可能性較大,有些領域會增加就業機會,有些領域則會減少,整體還是以減少為主。那些重複性較高的工作,最終是可以完全被AI取代的,例如生產線的工人、客服、電話銷售甚至一些借貸決策員、銀行櫃員、中介等工作,這些職業可能在未來的十五年會逐漸消失。然而,像教師這種職業未來不可能被AI取代,因為AI能減輕教師工作中重複機械化的任務(比如閱卷、點名),從而讓老師們真正釋放出來去關注學生、教學互動。因此,無論是企業的層面還是在政策層面,都應該更早地開始考慮,怎樣去創造那些不會被人工智慧取代的工作。

張亞勤在達沃斯論壇上的「Big tech, Big impact」 主題討論也談及,AI確實將會取代一些工作,但不是摧毀它們,他預計,這甚至會創造更多「體面」的工作。

數據隱私

AI+正逐步取代互聯網+,成為各行業追逐的新的增長點,作為其中關鍵的新型「石油」,各行各業也正在不斷拓寬大數據的應用範圍,政府和公司間又將怎樣攜手去解決正面臨的數據問題?

2015年諾貝爾經濟學獎得主、普林斯頓教授Angus Deaton就提出一個想法,開發一套隱私數據授權交易系統,治理隱私數據侵權問題。

Deaton認為,今天AI巨頭利用用戶數據獲取了巨大利潤,而且導致未來用戶隱私和財富兩空,所以他認為應該能有一套系統,讓每個用戶擁有自己的數據,選擇性授權給AI 或產品公司。

比如說,一個用戶可以不在乎隱私,並賣自己的數據給最高的出價者,另一個用戶可以只讓自己的數據被自己信任的公司使用,另一個用戶可以只在搜索引擎裡面使用。如果達到這樣的境界,壟斷型AI公司就很難剝削用戶,而且AI公司彼此會更直接競爭,因而降低傷害用戶利益的可能性。

IBM CEO Ginni Rometty也指出,在技術的進步中更需要指引,我們要遵守一套數據原則,而且數據永遠屬於用戶或消費者,數據自由流動的前提是安全和隱私得到保護。她認為,「全球政府和企業需要一群數據及安全領域的核心人物來引導這個快速發展的行業。」

機器學習

不久前,DeepMind團隊發表了最新論文,提出強化學習演算法Alpha Zero,一種可以從零開始,通過自我對弈強化學習在多種任務上達到超越人類水平的新演算法,而在達沃斯論壇上,關於機器學習演算法,DeepMind 聯合創始人兼主管 Mustafa Suleyman表示:「Alpha Zero沒有那麼神,外界對它有點誇大了。」

他說:「Alpha Zero要想工作,必須滿足三個前提:可預測環境(圍棋規則)、清晰獎勵系統(輸贏)、無變數(variability)。也並不是外界說的不受監督,Alpha Zero的監督來自於它的結構和訓練環境,這些依賴強化學習的具體方法在現實生活中效果不是很好。在現實生活中我們無法提供模擬器,進行巨量訓練來形成演算法。」

他預測三五年內,強化學習是完全沒法普及應用的,DeepMind團隊已經「將目光放到幾十年後了」。

Mustafa還說,Alpha Zero本身並不能解決AI對於數據的需求,但在數據生成和模擬上的進步(比如說用真實語音合成、人臉合成,甚至類似Grand theft auto來做自動駕駛的模擬)是有可能在未來自動產生可補充的數據。

李飛飛表示,大家都共同認為今天的人工智慧科技還存在大量的局限,尤其是對監督學習和人工賦予knowledge的依賴。

她指出,在機器學習的偏見和偏差話題上,「我們在數據收集和標註的偏差、演算法的偏差、演算法的可解釋性和透明性,以及演算法預測的正確應用等方面還有大量的工作要做。這些問題在與人的生命健康和權益方面尤為重要和突出。」

此外,她還認為人工智慧還是一個新的領域,只發展了60年左右,人工智慧的理想是讓機器變得智能,模仿人類智能解決問題,讓人類的生活變得更好。李飛飛特別提醒大家,目前AI還不能理解語境、複雜的知識,要識別人類的情緒、感情和動機,也還有很長的路要走。

除了上述三個方面外,關於AI引發的數據偏見以及行業存在的泡沫也被多位參會嘉賓提及。

由於AI的智能水平依賴數據,一旦數據樣本不全面,就會造成結果和判斷的偏差。一些研究已經顯示,隨著機器越來越接近於掌握人類的語言能力,它們也在吸收隱藏於語言中根深蒂固的偏見。

針對這一問題,UNICEF創新負責人Erica Koch談到,AI公司在解決道德上有四個責任:數據的完整性和代表性、演算法的公平性、用戶對於演算法和決策的知情權、用戶投訴渠道。她建議採取財務審計的模式,來檢視演算法、數據、透明度、政策等方面,可以從最危險的領域(比如說無人駕駛)開始,逐漸完善審計制度,從而來執行這樣對於大AI公司的監督。

由於AI發展過熱過快,也存在AI創業泡沫的擔憂。隨著蜂擁而至的資本,張亞勤認為,「(AI領域)炒作和泡沫是很多,但人工智慧本身是真實的,同時具有變革性,而且就在當下。」


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 第一財經 的精彩文章:

俄大選前普京笑看風云:支持率逾七成,反對派還內訌

TAG:第一財經 |