當前位置:
首頁 > 最新 > 解密制約人工智慧發展的限制:數據標籤、可解釋性問題首當其衝

解密制約人工智慧發展的限制:數據標籤、可解釋性問題首當其衝

專註於物聯網與新科技動態

(ID:bdnews01)

人工智慧似乎無處不在。我們在家裡和手機上都能體驗到。在我們意識到這一點之前——如果企業家和商業創新者是值得信賴的——人工智慧將出現在我們購買和使用的幾乎所有產品和服務中。此外,它在解決業務問題方面的應用也在飛速發展。與此同時,人們越來越擔心人工智慧所造成的影響:人工智慧驅動自動化對工作場所、就業和社會產生的影響。

在如Alexa、Siri和AlphaGo這樣的令人恐懼且賺足流量的勝利中,有時候會使人看不清一個事實:人工智慧技術本身——即機器學習和它的子集,深度學習——有很多的局限性,仍然需要不遺餘力去克服。這是一篇有關講述這些限制的文章,旨在幫助高管們更好地理解什麼可能會阻礙他們的人工智慧的發展。在此過程中,我們(Michael Chui,James Manyika,and Mehdi Miremadi)還將強調有希望取得的進展,這些進展將有助於解決一些限制並創造一波新的機遇。

我們的觀點來源於前沿工作的分析總結——研究、分析和評估數以百計的真實應用案例——以及我們與一些思想領袖、前沿科學家和人工智慧前沿工程師的合作。我們一直在努力總結這種經驗以幫助那些據我們所知往往只接觸到他們自己的倡議,而沒有很好地校準哪裡才是前沿陣地,或者步調製定者已經在用人工智慧做什麼的高管們。

簡而言之,人工智慧的挑戰和局限性正在為領導者創造一個「移動目標」問題:很難達到始終處於領先的優勢。同樣令人挫敗的是,人工智慧的發展遇到了現實世界的障礙,可能會降低人們對進一步投資的興趣,或鼓勵人們持觀望態度。正如麥肯錫全球研究所最近的研究顯示,在跨部門和部門內應用人工智慧方面,領導者和落後者之間存在著巨大的鴻溝(見表1)。

希望縮小差距的高管們必須能夠以一種明智的方式解決人工智慧問題。換句話說,他們不僅需要了解人工智慧在哪些方面可以促進創新、洞察力和決策;導致收入增加;以及提高效率,還要了解人工智慧在哪些方面還不能產生價值。更重要的是,他們必須理解技術約束和組織約束(如文化障礙)之間的關係和區別;缺乏能夠構建業務就緒、人工智慧驅動的應用程序的人員;以及將人工智慧嵌入產品和流程的「最後一英里」挑戰。如果你想成為一名領導者,你就應該了解一些阻礙人工智慧發展的關鍵技術挑戰,並準備開發一些有前景的發展項目,這些項目可以克服這些限制,並有可能改變人工智慧發展的軌跡。

挑戰、限制與機遇

一個有用的出發點是了解深度學習技術的最新進展。可以這麼說,人工智慧領域最令人興奮的進展是,這些發展在分類和預測的準確性方面取得了飛躍,而且沒有與傳統的監督學習相關聯的常規「特徵工程」有任何聯繫。深度學習使用大型的神經網路,它可以包含數以百萬計的具有結構分層的模擬「神經元」。最常見的網路稱為卷積神經網路和遞歸神經網路,這些神經網路通過訓練數據和反向傳播演算法來學習。

雖然已經取得了許多進展,但還有更多的工作要做。關鍵的一步是將人工智慧方法適用於 問題和數據的可用性。由於這些系統是經過「訓練」的,而不是經過編程的,因此各種過程通常需要大量的標記數據才能準確地執行複雜的任務。獲取大型數據集可能很困難。在某些領域,它們可能根本不可用,但即使可用,標識工作也可能需要大量人力資源。

此外,很難辨別通過深度學習訓練出來的數學模型是如何獲得特定的預測、推薦或決策的。一個黑盒,即使是做它的本職工作,獲得的效用也可能有限,特別是當預測或決定影響社會併產生可能影響個人幸福的後果時。在這種情況下,用戶有時需要知道運作背後的「原由」,例如為什麼演算法可以從具有法律影響的事實調查結果到具有監管影響的商業決策(如貸款)中給出推薦建議,以及為什麼某些因素(而非其他因素)在特定情況下如此重要。

讓我們探索五種相互關聯的方式,在這些方式中,這些限制和開始迎戰它們的解決方案正發揮作用。

限制1:數據標籤

目前大多數人工智慧模型都是通過「監督學習」進行訓練的。這意味著,人類必須對底層數據進行標記和分類,這可能是一個相當龐大且容易出錯的任務。例如,開發自動駕駛汽車技術的公司僱傭了數百人來手工標註原型車的視頻輸入時數來幫助培訓這些系統。與此同時,有前景的新技術正在出現,例如流內監控(由Eric Horvitz和他在微軟研究院的同事演示),數據可以在自然使用過程中進行標記。無監督或半監督的方法減少了對大型標記數據集的需要。兩種有前景的技術分別是強化學習和生成式對抗網路(GANs)。

強化學習。這種無人監督的技術允許演算法簡單地通過試錯來學習任務。這種方法採用的是「胡蘿蔔加大棒」的方法:對於演算法在執行任務時的每一次嘗試,如果行為成功,它都會得到「獎勵」(比如更高的分數),反之則會得到「懲罰」。只要學習環境是真實世界的表徵,通過重複,行為就會得到改善,在很多情況下甚至超越人類的能力。

強化學習以訓練計算機玩遊戲而聞名——最近,它與深度學習技術結合在一起。例如,在2017年5月,它幫助人工智慧系統AlphaGo在圍棋比賽中擊敗了世界冠軍柯潔。在另一個例子中,微軟提供了基於強化學習和適應用戶偏好的決策服務。強化學習的潛在應用跨越了許多商業領域。可能的情況包括,一個由人工智慧驅動的交易組合在價值上分別因收益而獲得點數或因損失而失去點數;一個每次在推薦驅動的銷售中獲得積分的產品推薦引擎;以及因按時交付或減少燃料消耗而獲得獎勵的卡車路線軟體。

強化學習還可以幫助人工智慧通過開發以前無法想像的解決方案和策略(即使是經驗豐富的從業者也可能從未考慮過這些解決方案和策略)來超越人類標記的自然和社會局限性。例如,最近,AlphaGo Zero系統使用一種新的強化學習方式,在從頭開始學習圍棋之後打敗了它的前身AlphaGo。這意味著要從完全隨機的遊戲開始,而不是從訓練人類及與人類一起玩的圍棋遊戲開始。

生成式對抗網路(GANs)。在這種半監督學習方法中,兩個網路相互競爭,以改進和完善他們對概念的理解。例如,為了識別鳥類的樣子,一個網路試圖區分真實的和虛假的鳥類圖像,而它的對手網路則試圖通過製作看起來很像鳥類的圖像來迷惑它,但事實上並沒有。當這兩個網路互相吻合時,每個模型對鳥類的表徵就變得更加準確。

GANs生成越來越可信的數據示例能力可以顯著減少對人類標記的數據集的需求。例如,訓練一種從醫學圖像中識別不同類型腫瘤的演算法,通常需要數百萬個具有特定腫瘤類型或階段的人類標記圖像。但通過使用一種經過訓練的GAN來生成越來越逼真的不同類型腫瘤的圖像,研究人員可以訓練一種腫瘤檢測演算法,該演算法結合了一個更小的具有GAN輸出的人類標記數據集。

雖然GANs在精確的疾病診斷中的應用還遠未完成,但是研究人員已經開始在越來越複雜的環境中使用GANs。這些包括以特定藝術家的風格理解和創作藝術作品,利用衛星圖像以及對地理特徵的理解,來創建快速發展地區的最新地圖。

限制2:獲取大量的訓練數據集

已經證明,使用線性模型的簡單人工智慧技術在某些情況下與醫學和其他領域專家的能力想接近。然而,當前機器學習浪潮需要訓練數據集,這些數據集不僅要有標記,而且要足夠龐大和全面。深度學習方法需要成千上萬的數據記錄,才能使模型在分類任務上變得相對優秀,在某些情況下,還需要數以百萬計的數據記錄才能達到人類的水平。

複雜之處在於,對於許多業務用例來說,大量的數據集可能很難獲得或創建(試想:利用有限的臨床試驗數據來更準確地預測治療結果)。在分配的任務中,每一個微小的變化都需要另一個大數據集進行更多的訓練。例如,教一輛自動駕駛汽車在天氣不斷變化的採礦地點進行導航將需要一個包含車輛可能遇到的不同環境狀況的數據集。

一次性學習是一種可以減少對大型數據集需求的技術,允許人工智慧模型在給出少量真實環境演示或示例(在某些情況下甚至只有一個)時學習一個主題。在只展示一個樣本(例如一輛小貨車)後,人工智慧的能力將更接近於人類的水平,就能相對準確地識別一個類別的多個實例的能力。在這個仍在開發中的方法中,數據科學家首先會在模擬的虛擬環境中對一個模型進行預先訓練,這個虛擬環境呈現一個任務的變體,或者在圖像識別的情況下,顯示對象的外觀。然後,在展示了人工智慧模型在虛擬訓練中沒有看到的一些真實世界的變化之後,模型將利用它的知識來找到正確的解決方案。

這種一次性的學習方式最終可以幫助系統掃描侵犯版權的文本,或者只顯示一個標記後識別視頻中的公司徽標。如今,這類應用才剛剛起步,但是他們的效用和效率很可能會迅速地擴大人工智慧跨越多個行業的使用範圍。

局限性3:可解釋性問題

人工智慧系統的可解釋性並不是一個新問題。但是,隨著深度學習的成功和採用,它也在不斷發展,帶來了更多樣化、更先進的應用,也帶來了更多的不透明性。更大及更複雜的模型使我們很難用人類的語言來解釋為什麼會做出某種決定(而在實時做出某種決定時就更難了)。這是一些人工智慧工具在可解釋性有用或確實需要的應用領域的使用率仍然很低的原因之一。此外,隨著人工智慧應用的擴展,監管規定也可能推動對更多可解釋的人工智慧模型的需求。

有望提高模型透明度的兩種新生方法是局部可解釋模型不可知解釋(LIME)和注意技術(見表2)。LIME嘗試識別訓練模型最依賴的是輸入數據的哪些部分,以便在開發進行預測。這種技術每次都考慮特定的數據片段,並觀察預測結果的變化,從而對代理模型進行微調並開發一種更精確的解釋(例如,排除眼睛,而不是通過鼻子來測試哪個對面部識別更重要)。注意技術將模型在做出特定決策時最常考慮的輸入數據可視化(例如,將注意力集中在嘴巴上,以確定圖像是否對人類進行了描述)。

另一種已經使用了一段時間的技術是廣義相加模型(GAMs)的應用。通過使用單特性模型,GAMs限制了特性之間的交互,從而使每個用戶更容易地進行解釋。使用這些技術來揭開人工智慧決策的神秘面紗,有望在很大程度上促進人工智慧的應用。

限制4:學習的普遍性

與人類的學習方式不同,人工智慧模型很難將它們的經驗從一種環境轉移到另一種環境。實際上,模型為給定用例實現的任何東西都只適用於該用例。因此,即使用例非常相似,公司也必須反覆提交資源來培訓另一個模型。

應對這一挑戰的一個前景可期的答案是學習遷移。在這種方法中,一個人工智慧模型被訓練完成一個特定的任務,然後快速地將學習應用到一個相似但不同的活動中。DeepMind的研究人員還在實驗中展示了學習遷移的前景,在實驗中,模擬訓練被轉移到真正的機器人手臂上。

隨著學習遷移和其他通用方法的成熟,它們可以幫助組織更快地構建新的應用程序,並使現有的應用程序具有更多樣化的功能。例如,在創建一個虛擬的個人助理時,學習遷移可以將一個領域(比如音樂)的用戶偏好推廣到其他領域(書籍)。而且用戶並不局限於數字原生用戶。例如,學習轉移可以使油氣生產商擴大其對人工智慧演算法的使用,訓練這些演算法為其他設備(如管道和鑽井平台)的油井提供預測性維護。學習遷移甚至有可能徹底改變商業智能:試想一個數據分析的人工智慧工具,它可以理解如何優化航空公司的收入,然後可以根據天氣或當地經濟的變化調整其模型。

另一種方法是使用某種近似可應用於多個問題的廣義結構的東西。例如,DeepMind的AlphaZero在三種不同的遊戲中使用了相同的結構:可以訓練出一種在一天內學會國際象棋的具有廣義結構的新模型,然後它就可以很好地打敗世界冠軍的國際象棋程序。

最後,考慮到出現試圖自動設計機器學習模型的元學習技術的可能性。例如,谷歌智囊團使用AutoML自動設計神經網路來在大規模數據集中對圖像進行分類。這些技術目前表現得和人類的設計不相上下。這是一個很有前途的發展,特別是在許多組織人才依舊短缺的情況下。元學習方法也有可能超越人類的能力,產生更好的結果。然而,重要的是,這些技術還處於早期階段。

局限性5:數據和演算法中的偏差

到目前為止,我們專註於通過在工作中已經應用的技術解決方案可以克服的一些限制,其中一些我們上文已經講述過。偏差是另一種挑戰。當人類的偏好(有意識或無意識)在選擇使用哪些數據點和忽視哪些數據點時,會產生潛在的破壞性的社會影響。此外,當數據收集本身的過程和頻率在不同的組別觀察到的行為不一致時,演算法分析數據、學習和預測的方式很容易出現問題。負面影響包括錯誤的招聘決策、錯誤的科學或醫學預測、扭曲的金融模型和刑事司法決策,以及在法律尺度上的不當使用(虛擬)手指。在許多情況下,這些偏見在「高級數據科學」、「專有數據和演算法」或「客觀分析」的面紗下被忽視或忽略。

當我們在新的領域部署機器學習和人工智慧演算法時,可能會有更多的實例將這些潛在偏差問題納入數據集和演算法中。這種偏差一般根深蒂固,因為識別它們並採取措施解決它們需要深入掌握數據科學技術,以及對現有社會力量(包括數據收集)的更深的元認識。總而言之,去偏差被證明是迄今為止最令人畏懼的障礙之一,當然也是最讓社會擔憂的障礙之一。

目前正在進行多項研究工作,同時也在努力進行最佳實踐,以促進學術、非營利和私營部門的研究中解決這些問題。這一切都不會進展太快,因為挑戰很可能會變得十分嚴峻,會出現更多的問題。舉例來說,考慮到許多基於學習和統計的預測方法都隱含地假設未來會像過去一樣。在社會文化背景下,我們正在努力促進變革,而根據過去的行為做出決定會阻礙進步(或者更糟糕的是,建立在抵制變革的基礎上),這時我們又應該做些什麼呢?。許多領導人,包括商界領袖,可能很快會要求就有關問題給出他們的回答。

擊中移動目標

要解決我們所描述的局限性以及在商業上廣泛實施本文所描述的許多先進技術,可能還需要數年時間。但人工智慧的應用範圍之廣令人驚嘆,這表明人工智慧最大的限制可能是想像力。以下是一些建議,是給那些努力保持領先的領導人的,或者至少不要落得太遠。

做好功課,做好校準,跟上步伐。雖然大多數管理人員不需要知道卷積神經網路和遞歸神經網路的區別,但是您應該對當今工具的功能有一個大致的了解,對哪些方面可能會有短期進展有一個認識,以及對未來的展望。 利用您數據科學和機器學習專家的知識,與一些人工智慧先驅者交談以獲得校準,並參加一兩場人工智慧會議來幫助你獲得真正的資訊;新聞媒體可能會有所幫助,但它們也可能是炒作機器的一部分。知識淵博的從業者正在進行跟蹤研究(如人工智慧指數(一項基於斯坦福大學的人工智慧百年研究項目)),這是另一種有助於保持先進的方法。

採用複雜的數據策略。人工智慧演算法需要幫助解開隱藏在系統生成的數據中的有價值的見解。您可以通過開發一個全面的數據策略來提供幫助,該策略不僅關注從不同系統收集數據池所需的技術,還關注數據的可用性和獲取、數據標記和數據治理。雖然更新的技術承諾會減少訓練人工智慧演算法所需的數據量,但數據饑渴的監督學習仍然是當今最流行的技術。即使是旨在最小化所需數據量的技術仍然需要一些數據。這其中的一個關鍵部分就是充分了解你自己的數據點以及如何利用它們。

從側面思考。學習遷移技術仍處於起步階段,但有辦法在多個領域利用人工智慧解決方案。如果您解決了大型倉庫設備的預測性維護這樣的問題,您是否也可以將相同的解決方案應用於消費產品?一個有效的下一個產品到購買的解決方案是否可以在多個分銷渠道中使用?鼓勵業務單位分享知識,這些知識可能會揭示如何在公司的多個領域使用你最好的人工智慧解決方案。

做一個開拓者。與當今的人工智慧技術和用例保持同步並不足以長期保持競爭力。讓您的數據科學員工或合作夥伴與外部專家合作,使用新生的技術(如本文中討論的技術)來解決影響巨大的用例問題,這些問題有望實現突破。此外,要了解什麼是可能的,什麼是可用的。許多用於標準應用程序(包括語音、視覺和情感檢測)的機器學習工具、數據集和訓練過的模型正在廣泛使用。有時它們是開源的,而在其他情況下則是通過由先驅研究人員和公司創建的應用程序編程介面(APIs)來實現的。密切關注這些可能性可以增加你成為先行者或先行者優勢的幾率。

人工智慧的前景是巨大的,實現這一願景所需的技術、工具和過程還沒有完全實現。如果你認為你可以促進技術發展,然後成為一個成功的領先追隨者,那就再想想吧。要從立竿見影的角度進行跨越是非常困難的,尤其是當目標變化得如此之快,而你又不明白人工智慧工具現在能做什麼、不能做什麼時。隨著研究人員和人工智慧先驅們準備解決當今最棘手的一些問題,現在是時候開始了解人工智慧前沿領域正在發生的事情了,這樣您就可以定位您的組織來學習、開發,甚至可能推進新的可能性。(來源;前瞻網,圖片為編者所加,來源網路)


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 暴點 的精彩文章:

區塊鏈不只用在虛擬貨幣,也可以讓營銷更精準!

TAG:暴點 |