當前位置:
首頁 > 科技 > 麥肯錫:人工智慧的五大局限 去偏好化是最難跨越障礙

麥肯錫:人工智慧的五大局限 去偏好化是最難跨越障礙

人工智慧(AI)似乎無處不在。我們可以在家中和手機上體驗它。在我們知道它之前 —— 如果企業家和業務創新者是可以相信的 —— 人工智慧只會涉及我們購買和使用的每種產品和服務。此外,其在商業問題解決方面的應用正在飛速發展。與此同時,人們對AI的影響的擔憂也在增加:我們擔心AI支持的自動化對工作場所、就業和社會的影響。

在諸如Alexa,Siri和AlphaGo這樣的恐懼力量和頭條新聞的鼓吹中,有時候人們忘了思考AI技術本身 —— 即機器學習及其子集,深度學習 —— 有很多局限性,仍然需要相當大的努力克服。這是一篇關於AI局限性的文章,旨在幫助管理人員更好地理解可能阻礙其人工智慧工作的因素。在此過程中,我們還將重點介紹有希望的進展,以解決一些局限性並創造新的機會。

麥肯錫的觀點取決於前沿工作的組合 —— 研究,分析和評估數百個實際使用案例 —— 以及我們與一些在AI前沿工作的思想領袖,開拓性科學家和工程師的合作。我們試圖提煉這些經驗,以幫助那些經驗豐富的經理人員,他們經常只能接觸到他們自己的倡議,而且沒有很好地校準邊界在哪裡,或者準備工作人員已經在用AI來做什麼。

簡而言之,人工智慧的挑戰和局限性正在為領導人製造一個「移動目標」問題:很難達到始終前進的領先優勢。當人工智慧的努力陷入現實世界的障礙時,也會令人失望,這可能會減少對進一步投資的興趣,或者鼓勵觀望態度,而其他人則會提前收費。正如麥肯錫全球研究院最近的研究所表明的那樣,領導者與部門之間在應用人工智慧方面存在著巨大的分歧(圖表1)。

希望縮小差距的高管們必須能夠以知情的方式解決AI問題。換句話說,他們不僅需要了解人工智慧可以促進創新,洞察力和決策制定的位置,導致收入增長;並獲得效率,但也是人工智慧尚不能提供價值的地方。更重要的是,他們必須了解技術約束與組織因素之間的關係和區別,比如文化障礙;缺乏能夠建立業務就緒,人工智慧驅動應用程序的人員;以及將AI嵌入產品和流程的「最後一公里」挑戰。如果你想成為領導者,理解一些減緩AI進步的關鍵技術挑戰,並準備利用有希望的進展來克服這些限制,並有可能彎曲AI閱讀的軌跡。

挑戰,局限和機遇

一個有用的出發點是理解最近的深度學習技術的進步。可以說,人工智慧領域最令人興奮的進展是,這些進步在分類和預測的準確性方面帶來了飛躍,而且沒有與傳統監督學習相關聯的「特色工程」。深度學習使用了大規模的神經網路,這些神經網路可以包含數以百萬計的模擬「神經元」。最常見的網路被稱為卷積神經網路(CNNs)和遞歸神經網路(RNNs)。這些神經網路通過訓練數據和反向傳播演算法學習。

雖然取得了很多進展,但還需要做更多的工作。關鍵的一步是將AI方法應用於問題和數據的可用性。由於這些系統是「受過訓練」而非編程的,因此各種過程往往需要大量標記數據才能準確執行複雜任務。獲取大數據集可能很困難。在某些領域,它們可能根本就不可用,但即使可用,標籤工作也可能需要巨大的人力資源。

以下探討了五種局限性:

局限1:數據標籤

目前大多數人工智慧模型都是通過「監督學習」進行訓練的。這意味著人類必須對基礎數據進行標記和分類,這可能是一個相當大的和容易出錯的雜事。例如,開發自動駕駛汽車技術的公司正在僱用數百人手動注釋來自原型車輛的數小時視頻反饋,以幫助培訓這些系統。與此同時,有前途的新技術正在出現,如流式監督(由Eric Horvitz及其微軟研究院的同事演示),其中數據可以在自然使用過程中加以標記。無監督或半監督方法減少了需要大量標記的數據集。兩個有前途的技術是強化學習和生成敵對網路。

強化學習。這種無監督技術允許演算法簡單地通過反覆試驗來學習任務。該方法學聽到了「胡蘿蔔和大棒」也就是軟硬兼施的方法:對於演算法在執行任務時所做的每一次嘗試,如果行為是成功的,它會收到「獎勵」(例如更高的分數),或者如果它失敗,則給予懲罰。隨著重複,在許多情況下,性能會提高,超越人的能力 —— 只要學習環境代表真實世界。

強化學習在訓練計算機玩遊戲方面有著廣泛的應用,最近與深度學習技術相結合。例如,2017年5月,它幫助AI系統AlphaGo圍棋比賽中擊敗了世界冠軍柯潔。在另一個例子中,微軟提供了決策服務,這些決策服務利用了強化學習和用戶偏好。強化學習的潛在應用可以跨越許多商業領域。可能性包括一個人工智慧驅動的交易組合,分別獲取或失去價值收益或損失點數;一個產品推薦引擎,可以接收每個推薦驅動的銷售點數;以及卡車路線軟體,可獲得準時交貨或減少燃油消耗的獎勵。

強化學習還可以幫助AI超越人類標籤的自然和社會局限性,通過開發以前無法想像的解決方案和策略,即使經驗豐富的從業人員可能從未考慮過這些。最近,例如,使用新型強化學習的AlphaGo Zero系統在學習從頭開始下圍棋之後,擊敗了其前身AlphaGo。這意味著從完全隨機的對自己的比賽開始,而不是訓練和與人類一起玩的圍棋。

生成敵對網路(GAN)。在這種半監督學習方法中,兩個網路彼此競爭以改進和改善他們對概念的理解。例如,為了識別鳥類是什麼樣子的,一個網路嘗試區分真鳥和假鳥的圖像,而其相反的網路試圖通過產生非常像鳥類但不是鳥類的圖像的方式來欺騙它。當這兩種網路相互抵消時,每一種模型對鳥的描述就變得更加精確。

GAN生成越來越可信的數據示例的能力可以顯著降低對人類標記數據集的需求。例如,訓練演算法以從醫學圖像中識別不同類型的腫瘤,通常需要數百萬個具有給定腫瘤類型或階段的人類標記的圖像。通過使用經過訓練的GAN生成越來越逼真的不同類型腫瘤圖像,研究人員可以培訓一種腫瘤檢測演算法,該演算法將一個更小的人類標記數據集與GAN的輸出相結合。

雖然GAN在精確疾病診斷中的應用仍然存在,但研究人員已經開始在日益複雜的情況下使用GAN。其中包括以特定藝術家的風格理解和製作藝術作品,使用衛星圖像以及對地理特徵的理解,以創建快速發展地區的最新地圖。

局限2:獲得大量的訓練數據集

已經表明,使用線性模型的簡單AI技術在某些情況下可以接近醫學和其他領域的專家的能力。然而,機器學習的當前浪潮需要訓練數據集,其不僅被標記,還得足夠大及全面。深度學習方法需要數千個數據記錄才能使模型在分類任務上變得相對較好,在某些情況下,需要數百萬個數據記錄才能在人類層面上執行。

併發症是,大量數據集可能很難獲得或創建許多商業用例(想想:以有限的臨床試驗數據來更準確地預測治療結果)。而分配任務中的每個小變化都可能需要另一個大型數據集來進行更多的培訓。例如,讓自動駕駛汽車在天氣持續變化的礦區導航時,需要一個包含車輛可能遇到的不同環境條件的數據集。

一次學習是一種技術,可以減少對大型數據集的需求,允許AI模型在給出少量現實世界演示或示例(甚至在某些情況下為一個)時學習某個主題。人工智慧的功能將更接近於人類,他們可以在僅顯示一個樣本(例如皮卡車)後相對精確地識別出多個類別的實例。在這個仍在發展的方法論中,數據科學家首先會在模擬虛擬環境中預先訓練一個模型,該環境會呈現任務的變體,或者在圖像識別的情況下,顯示對象的外觀。然後,在展示AI模型在虛擬訓練中沒有看到的幾個真實世界的變體之後,該模型將利用其知識來達到正確的解決方案。

這種一次性學習可能最終有助於讓系統掃描文本以檢查是否存在侵犯版權的內容,或者在僅顯示一個標籤示例之後在視頻中標識公司標誌。今天,這些應用程序只處於早期階段。但它們的效用和效率很可能會在多個行業迅速擴大人工智慧的使用。

局限3:可解釋性問題

AI系統的可解釋性不是一個新問題。但它隨著深度學習的成功和採用而不斷發展,這種深度學習帶來了更多樣化和先進的應用程序以及更不透明。更大更複雜的模型使人們很難從人的角度解釋為什麼達成某種決定(甚至在實時達到時更難)。這這也是為什麼一些人工智慧工具在應用程序領域的使用率仍然很低,因為它們的解釋能力是有用的或者確實需要的。此外,隨著人工智慧應用的擴展,監管要求也可能會推動更多可解釋的人工智慧模型的需求。

兩個新的方法有望增加模型透明度,這是局部可解釋模型的不可知解釋(LIME)和注意技巧(圖2)。 LIME試圖確定訓練好的模型中哪些部分的輸入數據最依賴於開發代理可解釋模型的預測。該技術一次考慮某些數據段,並觀察預測結果的變化,以微調代理模型並形成更精確的解釋(例如,通過排除眼睛而不是鼻子來測試哪些更重要面部識別)。注意技巧可視化模型認為最重要的那些輸入數據,因為它會做出特定的決定(例如關注嘴巴以確定圖像是否描繪了人類)。

已經使用了一段時間的另一種技術是廣義相加模型(GAM)的應用。通過使用單特徵模型,GAM限制了特徵之間的相互作用,從而使得每個特徵更容易被用戶解釋。使用這些技術,除其他之外,對AI的決策進行神秘化預計將大大促進人工智慧的採用。

局限4:學習的普遍性

與人類學習的方式不同,人工智慧模型難以將他們的經驗從一套環境轉移到另一套環境。實際上,對於一個給定的用例,無論一個模型是否已經達到,都只適用於該用例。因此,即使用例非常相似,公司也必須多次投入資源來訓練另一個模型。

對這一挑戰的一個有希望的回應是轉移學習。在這種方法中,人工智慧模型被訓練完成某項任務,然後迅速將該學習應用於類似但不同的活動。 DeepMind的研究人員在實驗中也發現了轉移學習有希望的成果,在這些實驗中,在實驗中模擬的訓練被轉移到真正的機器人手臂上。

隨著轉移學習和其他一般化方法的成熟,他們可以幫助組織更快地構建新的應用程序,並為現有應用程序提供更多不同的功能。例如,在創建虛擬個人助理時,轉移學習可以將用戶在一個區域(如音樂)中的偏好推廣到其他方面(書籍)。用戶不限於數字原生。例如,轉移學習可以使石油和天然氣生產商擴大使用經過培訓的AI演算法,以便為鑽井提供預測性維護,以便將其用於管道和鑽井平台等其他設備。轉移學習甚至有可能使商業智能發生革命性的變化:考慮一種數據分析人工智慧工具,該工具可以理解如何優化航空公司收入,然後使其模型適應天氣或當地經濟變化。

另一種方法是使用一些近似於可應用於多個問題的廣義結構。例如,DeepMind的AlphaZero為三種不同的遊戲使用了相同的結構:可以用這種廣義結構來訓練一個新模型,以便在一天內學習國際象棋,然後大敗世界冠軍國際象棋程序。

最後,考慮嘗試自動化機器學習模型設計的新興元學習技術的可能性。例如,Google Brain團隊使用AutoML來自動設計神經網路,以便在大規模數據集中對圖像進行分類。現在這些技術與人類設計的技術一樣好。這是一個很有希望的發展,特別是隨著許多組織的人才供應不足,這種情況尤其如此。元學習方法也有可能超越人類的能力併產生更好的結果。但重要的是,這些技術仍處於初期階段。

局限5:數據和演算法中的偏差

到目前為止,我們關注的是那些可以通過已經起效的技術解決方案來克服的限制,其中一些我們已經描述過了。偏好是一種不同的挑戰。當人類的偏好(有意識或無意識)在選擇使用哪些數據點和忽視時,可能會產生毀滅性的社會影響。此外,當數據收集的過程和頻率本身在整個團隊和觀察到的行為中不均衡時,在演算法分析數據、學習和預測數據時很容易出現問題。負面後果可能包括錯誤的招聘決定、錯誤的科學或醫療預測、錯誤的財務模型和刑事司法決策,以及在法律尺度上誤用。在許多情況下,這些偏好在「高級數據科學」、「專有數據和演算法」或「客觀分析」的面紗之下,沒有得到承認或被忽視。

隨著我們在新的領域部署機器學習和人工智慧演算法,可能會有更多的實例將這些潛在的偏好問題轉化為數據集和演算法。這種偏好傾向於保持嵌入狀態,因為承認它們並採取措施解決它們需要深入掌握數據科學技術以及對現有社會力量(包括數據收集)的更多元理解。總而言之,去偏好化被證明是迄今為止最艱巨的障礙之一,當然也是最令人擔憂的。

目前正在開展多項研究工作,以及努力捕捉最佳實踐,以解決學術,非營利和私營部門研究中的這些問題。 這不會太早,因為挑戰可能變得更加重要,並且會出現更多問題。 例如,考慮一下這樣的事實,即許多這些基於學習和統計的預測方法隱含地假定未來將像過去一樣。 我們在社會文化背景下應該做些什麼來促進變革,以及根據過去的行為做出決策會阻礙進展(或者更糟糕的是,建立抵制變革)? 包括商界領袖在內的各種領導人很快可能會被要求回答這些問題。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 頭條前瞻 的精彩文章:

美國無線傳媒巨頭IHeart計劃本周末申請破產 240億美元債務玩脫了!
福布斯2018中國最傑出商界女性排行榜:華為孫亞芳第一 25位「最具潛力」

TAG:頭條前瞻 |