人工智慧與人類智能的共進化
首先跟大家介紹一本書,這本書叫《Thinking, Fast and Slow》作者是諾貝爾經濟學獎得主,這本書在商學院,經濟學系都在用。
他把人思考行為分成兩大塊:不加思索;想很久。我把它再細分,有些想得非常快(這張圖是貓還是狗) ;有些想的比較慢(這幅劇照是喜劇還是悲劇);還有一類要想的非常慢(微軟要不要收購領英)。
今天我們用三個人工智慧做的項目,用微軟做的項目為例子。
第一類問題:Think very fast。
這是我們所謂的感知問題:語音識別、圖片搜索、圖片識別……
大家可能很清楚ImageNet,它是一個計算機視覺系統識別項目,是目前世界上圖像識別最大的資料庫。微軟05年12月第一次打敗人的水平。大家一定聽過什麼叫深度學習。微軟做到第一次打敗人用了上百層,到今天已經有上千層。層數越深需要數據量越大,運算量更大,很多時候根本運算不完。一樣的數據量,如何把結果做上去,還能算完,這需要很多研究。
事實上一個圖像有很多物種,不但要辨認出是什麼,還要框出來才有用。
我們有微軟COCO圖像識別比賽,參賽者均須納入微軟COCO數據數據源,然後用靠自己的編程演算法,來產生圖像識別結果,儘可能接近人的描述,評判標準包括平均正確性和細節描述。這個比賽要做到像素級別的才算正確。微軟仍然多年領先。
我們演算法不只要做的準確,還可以做的很快,我們可以在視頻中做到實時,因此可以做很多應用。
剛剛只講到框出來,還有一個比賽叫Image Caption,你要講出這個圖片要幹什麼。 (Image Caption是一個融合計算機視覺、自然語言處理和機器學習的綜合問題,它類似於翻譯一副圖片為一段描述文字。該任務對於人類來說非常容易,但是對於機器卻非常具有挑戰性,它不僅需要利用模型去理解圖片的內容並且還需要用自然語言去表達它們之間的關係。)
你能做圖片,你也可以做視頻,但視頻更難,比如有一群人在跳舞,比如有一個人在彈琴。
我們要把這個做成服務,Image Cation已經在網上並為用戶提供服務,希望以後能為大家提供Video Catpion的服務。
微軟把這些內容做成微軟認知服務,計算機視覺,語音識別,自然語言處理,知識,搜索,都把它做成API,讓大家不需要把所有的人工智慧的每個部分都自己做,可以使用API做很容易的應用。
比如海外Uber的人臉識別,便使用了微軟的技術。司機開車以前要進行人臉識別的登記,確定是司機本人,不能代駕。
機器翻譯在中國用的最大,很多網遊,中國和國外國家玩,翻譯很有用。
Luis(Language Understanding Intelligent Service,語言理解智能服務)是聊天機器人,中信集團,新加坡政府都在使用。
搜索API,很多公司也同樣在使用。 比如歐西亞,以及我們自己的OneNote。
我們的目的是API,但同時也做了一些APP。
我們兩年前做了一個很有名的App how-old.net,機器識別上傳照片的性別和年齡,這款現象級的產品是微軟做的。 微軟未來展示用微軟的認知服務多容易去寫的你App。因為 how-old.net 源代碼總共只有9行,包括decoration,裡面大部分還是common,因為你有API,設置參數以後,上傳照片,便可以獲得信息,做一個UI就可以了。這就是我們的目的——讓AI普及,讓有好idea想做AI應用的人,不需要把所有的AI技術做一遍。
在中國,微軟小冰推出到現在,已經是第四代了。微軟跟通訊應用LINE日本也合作推出了日本版的「小冰」,取名RINNA,美國叫Zo。
小冰到今天其實是是各個智能的結合,它不僅僅是自然語言的聊天,它也有語音、視頻、照片。比如有人上傳狗的照片,小冰的目的不是辨認出這是什麼狗,雖然很重要,如果只聊這個聊天會聊不下去。你可以聊什麼呢?狗的主人?什麼樣的人喜歡這個狗?哪個名人誰長的像狗……對小冰來講,每個session用戶和小冰有幾個(對話)輪迴,小冰在中國平均每個session大概有25輪對話。而你和朋友聊天,我估計每個session最多有3到5輪。
我們還和京東合作,(讓小冰)辨認出哪些書,還可以聊書的內容等。我們還能辨認辨認衣服的布料、款式、針線活。
人的話我們講,用剛才的那個認知服務,比如這張我和老闆一起的合影。電腦會分析每個人性別年齡。還有一個是兩人的相似度:如果年齡差不多,會說你們是兄弟,如果顏值在某個區段,談外表,顏值不在一個區間,談內心。
所以小冰是所有感知服務的集成。
第二類問題就是think a little bit slow。
我很喜歡這張圖,什麼叫大數據,什麼叫AI,這張圖全部涵蓋。
每件事情,每個東西,不管是產品、實驗、研究都是這個圖。你有假想,丟到外面去;你用感測器(Sensor)收集數據,放到物理世界(Physical Word),做完分析(Analysis)以後做決定(Decision)。這個決定是說,下個產品改什麼、下個實驗做什麼……再把這個東西擺出去(Actuator)改變世界的一些東西。
我們以前也是這樣做,close一個loop多半會進步,在控制工程,所有東西都是這樣。
不一樣的地方是今天我們有了IOT(物聯網),舉一個例子,以前要去水裡取水,採樣回來,去化學實驗室做實驗,幾周就過去了。分析出來以後,再派人去採樣本,進行循環。這要花很多時間,現在有物聯網,隨時隨刻可以採集數據。可以改變這些東西。
人也是這樣,比如我去加護病房,有個蠻管用的方法,測人體的各個指標,哪個標準不符合正常值,把它維持在正常的標準。所以,加護病房就是這樣把人救回來的。
一樣的道理,雖然可能誇張,將來是絕對有可能的。假如以後能在最早期發現癌細胞(一個或者是一群),治療癌症的成功率就很高。
Actuator和Sensor,這就是所謂的物聯網。
上面的東西(Decision、Analysis),能自動化以後,搜集大量的數據,有很大的運算能力,可以自動起來,AI就是那個演算法。
我要講的就是說,這個系統可能很複雜,現在AI為什麼這麼火,是因為有很多東西可以這樣做,把它連起來,雖然這個東西很複雜,但是可以自動化。
舉一個商業上的例子,一個東西叫Predictive maintenance(預見性維護)。
以前電梯怎麼修,電梯壞了讓電梯公司來維修,隔了幾天到電梯裡面,把一個東西(檢測器)插上去,這個東西叫RS-232(串列數據通信的介面)的介面,接上去以後,下載一些數據,拿回去分析,又隔了兩個禮拜,又去採樣。找到問題,電梯幾周不能工作。
現在用物聯網的思路解決,裝一堆感測器,記錄電梯的運行參數,來預防性的維修。如果發現阻力大了,速度不均勻了,可能加加油就可以了。再比如開車,理論上來說,每六個月換一個濾網,但每個人開車習慣不同,多三個月換一次,開車少可能一年換一次。Predictive maintenance就是在做的這個事情。這個在工業界已經鋪天蓋地做,沒壞之前維修,能省下大量錢和時間。
物聯網這個概念沒提出很多年,但在未來,萬物都會放上感測器,這非常重要。如果沒有數據,AI根本沒戲。
微軟提供了整套Cortana Intelligence 套件,將數據轉變為智能操作。從搜集數據,到大數據分析,到可視化,到最後有Dashborad。我們有很多合作夥伴,比如勞斯萊斯,勞斯萊斯不僅造車,引擎也特別有名,飛機的引擎來源之一是勞斯萊斯。
飛機公司最大的花費是油錢,油的波動對飛機公司很影響很大,油多了會重,油少了不安全。還有飛機平衡的問題。有這個東西,可以預測路線風向氣候,甚至是以前難以預測的重量,可以做的比較精準,省了很多錢。我們可以把數據記錄下來,進行預測。以前沒有感測器,當然希望把AI的演算法做的更好,做好演算法的背後都是數據的取得和取得數據快速的程度。
將來,雖然你要想些慢一點的東西,你會重複的做,這種交給AI很適合,加上物聯網以後,便全面的自動化。
第三類問題比較特別,一個東西你要想的Very Slow。最後你要做出決定。這樣的系統你取得的數據通常不會完整,甚至不是一個封閉系統。
比如,我們該不該買LinkedIn。這個大概很長時間不會讓AI做,很多決定雖然不是你最佳的選擇,但是也不會完全交給系統。有的人可能完全交給系統做,但我認為大部分人不會這樣。這個東西不代表AI不會幫助,AI可以做很多數據分析,人來做決定。
我們要做思考,很多時候不是黑箱的思考,我們要做白箱的思考,進行推理。人能做思考一定是有規矩的,種什麼因得什麼果,這個AI系統是黑箱不一樣,不知道怎麼運作,黑箱和黑箱間的關係你根本不知道,除非一個黑箱的output剛好是另外一個黑箱的input,如果你知道事情的因果關係,你可能能做這件事情,因果關係在統計學是非常難的。統計學有個例子,喜歡玩電游的,和暴力傾向有組合,玩電游會造成暴力傾向?如果學過統計,知道完全不科學,是A影響B,還是B影響A,可能是倒過來的。可能是本身暴力,才喜歡玩電游。你需要大量數據,可能因果是完全沒意義的。
所以我要提到,AI(artificial intelligence)和HI(human intelligence)的組合。兩個是合作關係。
用剛才的圖(Close the Feedback Loop),剛才介紹的第二類問題,AI這塊可以做黑箱,收集到很大的數據,close system,AI落地了。當不是的時候,沒關係,AI+HI。科學來講,科學大膽假設小心求證,人永遠在Loop裡面。
微軟有個產品叫Power BI(是一套業務分析工具,用於在組織中提供見解。可連接數百個數據源、簡化數據準備並提供專門分析。生成美觀的報表並進行發布,供組織在 Web 和移動設備上使用。每個人都可創建個性化儀錶板,獲取針對其業務的全方位獨特見解。在企業內實現擴展,內置管理和安全性。)
為什麼可視化重要,因為數據是死的,你要怎麼看。可視化幫助你,有界面容易去從不同角度去看,洞察因果,再去找新的數據,來證明你的想法。
Power BI可以自動發掘一些有趣的點,但不見得每個點都有意義,如何解讀數據,要根據人。這就是AI和HI配合。系統推薦你可能感興趣的,自己也要去看。這是我們推出的QuickInsights。界面上有兩種,一個叫把東西推給你(push),我們現在想,用自然語言交談,我想看哪一類的Insights,我們能不能用自然語言對話的方式去做。自己拿(pull)需要的東西。
我們有開發了一套系統,還沒有上市。用戶可以和系統對話,用戶用自然語言輸入查詢。對於這個查詢,機器人給了圖表。並詢問是否進一步分析。當問題遇到模糊,可以通過對話弄明白,要用戶進一步解釋危險的含義。用戶用自然語言定義。新的概念,在以後的對話可以用。
我們剛才講的Feedback Loop,不管是用AI,還是用AI+HI,為什麼AI這麼火。有了數據和演算法。有了數據,AI演算法,計算資源以後,我們可以做Digital transformation(數字轉型),它對每個公司,每個國家,都產生很大影響。
從公司來講,有四大塊會對未來世界造成本質上的影響。
從外部來講:
1.迭代產品:每個公司一定有產品,讓每個產品迭代的更好,這就是互聯網思維
2.吸引客戶:每個單位有客戶,這裡面就算你產品不改變,比如蘭州牛肉麵,可口可樂,也想和客戶聯繫的最緊密
從公司內部來講
3.優化操作:如何讓運營更有效率更節省成本。
4.賦予員工權力:公司最有價值的一定是員工。讓員工生活更順暢,更和諧。
以上四點這適用於每個公司。這也是業界看到的機會。
從架構上來看,雲計算IaaS,PaaS SaaS,有點像AI的硬體,軟體GPU,FPGA。CNTK,每個要有一個IaaS,認知服務Power BI就像是PaaS。Data Scientists,就可以用IaaS,PaaS做SaaS,重複性很複雜閉環,全部用AI搞定。第三種例子是人工和智能一起做,AI+HI,這種機會無窮的。
微軟是個軟體公司,但最近硬起來了。很多人說微軟硬體做的比蘋果還好,為什麼,(雖然智能手機等硬體沒做好)但是新的硬體是AR/VR,微軟是領先的。我們今年還會上hololens graphics 的VR,這些硬體比誰都強,這是未來的硬體。大家吹了那麼多AR/MR,誰做出來了?微軟已經賣了一年半了。給大家看個電梯公司維修的例子。
當然會對AI對職場工作產生變化,全部被取代不是一件簡單的事。機器人把這個拿起來不是一件非常簡單的事情。但更重要的是AI+HI,怎樣讓技術幫助人更有效能。
未來會怎麼樣,大家看的報道非常多,很危言聳聽,到底哪些該害怕,哪些不要。
首先我給大家講一下1950年,1950年是什麼時代,二戰剛結束,當年全世界計算機可以用兩隻手輸出來,計算機發明是因為曼哈頓計劃,要去原子彈。
那個時候,《時代雜誌》已經在擔心機器人比我們聰明。人很奇怪,我們原子彈都造出來了,威力都看出來了,我們造了拖拉機等各種機器,我因為工作原因,看過無數機器人,看人形機器人很害怕,人形機器人站的很穩非常重,我很害怕被打到。人人好玩,會擔心機器比我們聰明。
1950年AI這個定義還沒出來,1956年達特茅斯會議,這一年有個人叫John McCarthy(約翰·麥卡錫),他找了一幫人在達特茅斯定義了AI這兩個字。1956年還沒有AI這個定義,大家已很害怕。今天,AlphaGo已經把人信心打垮了。
人在智力這個事情上,受到創傷的感覺一直都有。那麼什麼是智能,人對智能定義一直在改變。
感知(Perception)之下還有一些東西,大家不覺得很智能,因為今天大家認為人臉識別已經很智能了,能夠聽懂語言、和人聊天、做自然語言交互……大家有沒有人認為算術是智能的。我人生中受到的第一次打擊是小時候沒有被選去參加珠算隊,在我們那個年代,計算和下棋是分段的,我們認為算數好的人是神童。但現在已經不沮喪了,和計算機比計算簡直是以卵擊石。記憶力,被稱為倒背如流的人,大部分人不會認為其很聰明。所以記憶力這件事是不錯,但沒有多了不起。
IBM Watson幾年前做了一個功能,那個遊戲大部分靠記憶,一些歷史和地理的問題讓人答出來。今天你有搜索引擎,大部分問題一查就出來了。
我想講的是,人類對智能的定義不斷在改變,人類智能和人工智慧是共進化的。假如沒有計算機,我們可能認為,會珠算的人是聰明的。
感知,是不花時間,think very fast。AI比我們做得好。比如記住50個人的照片,安檢。我認為,讓機器做我高興的不得了。
認知(Congition)這件事到現在還是沒有譜的,為什麼呢?今天的AI是個黑箱,它能解決what不知道why,不同黑箱間無法做reason,人是用認知去做的。
舉個例子,語音識別有個雞尾酒效應,我們平常在很嘈雜的環境,耳朵要聽好幾個,你聽到的話都是斷斷續續的,但是可以繼續溝通,為什麼,因為雞尾酒會裡面,你有認識的人,知道大概講什麼,人聽到幾個音,能大概知道講什麼,人用認知的方法做感知,但AI全錯。
另外一個例子,翻譯,有人說,翻譯要被替代了,是真的嗎?我認為是看哪一種翻譯,自動翻譯都說一句一句翻譯的,常常詞不達意,人翻譯,不是一句一句翻譯的,是聽了一段,一整段只翻譯一兩句,一兩句翻譯一整段。用自己的話講出來。
我有個美國老闆,充當翻譯,都說一段一段翻譯的。常常發生我老闆沒講的話,我先翻譯了。meeting是我安排的,意思是領導不來我自己也可以講。還有幾次,我被老闆抓到了,我好想還沒講,你怎麼就翻譯了。人可以做到未卜先知,這不是數據決定的。人的認知有白箱,知道因果關係,能finish。
因為你有白箱,你才可能舉一反三。小孩訓練認識狗可能看幾個就會了,深度學習可能看幾百萬個圖。人可以辨認howlevel的東西,燒成灰都認得,機器認不了。但另外一方面講,機器可以辨認50個,人和機器用在不同task。有些是我學來的,不是我發明的。所以我決定做學問,以前人做什麼,甚至是不同領域的。
有個哲學家叫John seale 1980年提出了一個名為「中文房間」的實驗,(要求你 想像一位只會說英語的人身處一個幾乎安全密閉的房間中,房間門上有一個小窗口。他有一台具有英語翻譯功能的電腦,房間里還有足夠的紙、鉛筆和文件櫃。隨後寫著中文的紙片通 過小窗口將被送入房間中。根據Seale的理論,房間中的人可以翻譯這些文字並用中文寫上 他的回復。雖然他完全不會中文,但Seale認為通過這個過程,房間里的人可以讓任何房間 外的人以為他會流利地說中文。)這個人是個腦科學家和哲學家,他touch到幾個重要的點,圖靈測試是黑箱測試,圖靈測試是指測試者在與被測試者(一個人和一台機器)隔開的情況下,通過一些裝置(如鍵盤)向被測試者隨意提問。進行多次測試後,如果有超過30%的測試者不能確定出被測試者是人還是機器,那麼這台機器就通過了測試,並被認為具有人類智能。。實驗為什麼叫「中文房間」,國外在1980年對中國不了解,把不懂的成為Chinese,並不是和Chinese有什麼關聯。當時有強AI,弱AI,你可以相近,可能沒有真正了解,這裡面用剛才的例子跟大家解釋了,回答的漂亮不代表理解。
這種沒有理解的東西不是人做的方式。「白痴啊,你不了解中文啊。」你聽到這樣的話非常很生氣,而不會回答,「對,我是白痴,不會講中文」。這是強AI和弱AI的區別。強AI我真的了解,用我的話講出來。另外一種是黑箱,你罵我沒有感覺。今天的AI都是這種,弱AI沒有感情反而很有用。客觀是個很了不起的事情。人會受到情緒的影響。
神經科學家分析出左右腦的差別。大家發現,左腦管比較邏輯的,右腦做合成創意的。
感知AI做的比人好,認知AI和人差不多,但到了創造力上,AI完全沒有。我先定義下什麼叫創造力,人最了不起的東西叫演算法,我先定義演算法,演算法就是step by step的一個process,operation to solve the problem(演算法是指解題方案的準確而完整的描述,是一系列解決問題的清晰指令,演算法代表著用系統的方法描述解決問題的策略機制。)。什麼叫創造力?解決一個未解的問題,用更好解來解一個已解問題,這就叫創新。用別人的演算法叫應用。什麼是演算法,舉個例子,從1加到n至少有兩種演算法,一種是硬算,另外一種大家都知道,n*(n+1)/2,據說這是高斯發明的,顯然後者更好。
說到這裡,我要講我對於AlphaGo的理解,你和計算機去比從1加到n,計算機用土方法,你用比較聰明的演算法,假設n很大,肯定是計算機算的快。AlphaGo是什麼?任何一件事情,一定是演算法+計算。AlphaGo的演算法來自很聰明的人,計算是幾萬台機器算出來的。李世石要有自己的演算法,還要自己計算。李世石五場贏了一場,李世石的某場演算法是不是可能比AlphaGo更聰明,計算部分本身是太不公平的。其實每一次當所謂什麼東西超過人的時候,大家說AI很厲害,我持相反,人怎麼這麼聰明。
什麼叫下棋,象棋有點像開根號,和計算機比本身是沒有意義的,阿爾法狗是黑箱,經過大量訓練,那麼人和機器比有任何意義嗎?大家真的覺得下棋的人很聰明嗎,有史以來誰最聰明?公認是愛因斯坦。去年有個重要的是事情是,引力波等了一百多年,用先進技術勉強測到影子,而一百年前哪裡有數據,簡直是零數據,計算機怎麼可能有創造力呢。所有的演算法哪個不是人搞出來的。
所以人和計算機關係AI+HI,人大膽假設,計算機小心求證。人最了不起的是意識。剛才講的「中文房間」,有意識才是強人工智慧。有兩派,一個認為除了腦沒有意識,另外一個認為,意識是全身的。你有疼痛會影響你的意識。
沒有爭議的是,一定是生物才可能有意識,生物裡面植物也沒有意識,這是大家共識。大家普遍相信,只有少數動物才有意識。
耶魯大學教授寫了一本書《The Tides of Mind: Uncovering the Spectrum of Consciousness》,書中講到意識和創造有關,其他書中也有同樣結論。當意志力很集中時 ,創造力不是最高的。意志力不集中的時候,創造力可能特彆強。我也找到很多例子,貝多芬9號交響曲完全聾了瞎了,梵高把耳朵割掉時候很痛苦。化學家科普勒,睡夢中找到苯例子六角星結構……人本身是不完美的。意志力不集中是個不完美,但往往有創造力,這是為什麼?但有一點我要講,科普勒也講,光睡覺是不夠的,大膽假設,要小心求證,缺一不可。
人工智慧到底危不危險。Weak AI其實很強,能專註做一件事情,有哪個人能讀那麼多數據?沒有。但它很強。Strong AI是指人,但每一樣,沒有專家系統強。人沒有辦法一天24小時集中,有三分之一時間沒有意識,人的睡覺無意思。有可能不完美,可能造成了我們的創造力。
另外,我們可不可以造一個機器人,有意識,在科學上有意義,那麼實際上有意義嗎。比如我叫太太去端咖啡,太太十次有五次會說,你自己有手有腳,幹嘛不去弄。有人希望造一個機器人不可控嗎?這個命題本身有問題。
極點會不會到,AI自己可以翻新。從歷史角度來看,就算做到強AI也不可能發生。還有很多未解問題,雷曼猜想還沒解,人從哪裡來,宇宙有沒有大爆炸……沒人知道。解決了一個問題,下個問題有可能無解,怎麼可能有極點?如果這個世界上所有的問題都結了,人的意義何在?
唯一要擔心的可能是bug,有人問哪部科幻電影接近事實,可能是《黑客帝國》,它是將bug造成機器人對抗人類,這個可能幾乎是0,大家不用擔心。我還是比較樂觀的。
AI有另外一種解讀是Augmented Intelligence。Human+Machine可以做Superman的事情。Human可以和Machine共進化。謝謝大家。
TAG:大快搜索 |