普華永道發布2018 AI預測報告:塑造商業策略的8個洞察
選自pwc.com
機器之心編譯
機器之心編輯部
不久之前,普華永道發布報告《2018 AI predictions:8 insights to shape business strategy》,對 2018 年的 AI 趨勢進行了預測,並介紹其對商業、政府和社會的影響。機器之心對該報告的重點內容進行了編譯,全文詳見報告地址。
報告地址:https://www.pwc.com/us/en/advisory-services/assets/ai-predictions-2018-report.pdf
人工智慧非常複雜,且發展迅速。AI 在一些領域做了很多,在另一些領域做得較少,這是任何人十年前都無法預測的。今天,任何人都幾乎不可能預測未來 5 到 10 年人工智慧將會給大家呈現什麼。但這不代表我們不可以大膽地預測下一年或者寫一個十年人工智慧將會帶來什麼。
本報告的目標是不同的: 為未來 12 個月的 AI 趨勢進行了預測,並介紹其對商業、政府和社會的影響。我們對進行短期預測很自信,因為這些初期趨勢早已在進行了,只不過還沒有獲得應用的關注而已。
我們做出了 8 個預測。這些預測不僅僅基於人工智慧遠見者和計算機科學家,也基於普華永道保險、諮詢、稅務服務的領導從困惑於如何將 AI 應用到自己公司、幫助員工適應 AI 社會的客戶處所觀察到的現象。
1.人工智慧會在影響僱員之前先影響僱主
每個人都經常看到這樣的新聞標題: 機器人和人工智慧將會摧毀我們的工作。但我們沒有從另一方面看。反之,我們都看到了一個更複雜的景象:隨著 AI 的到來,工作市場在逐步擴大,如果準備充足,這將是正面的影響。新的工作將會補償失去的工作。人還是會在工作,而且他們在人工智慧的幫助下將會工作得更有效率。
67% 的管理層稱結合人類和機器的智能,AI 將幫助人們和機器一起工作,獲得更高的效率。
啟示
大眾對人工智慧的接受將會很快實現
「人工智慧會摧毀大量工作」將會是個假警報,人們會更樂意地接受工作場景和社會中出現的人工智慧。我們也許更少地聽到機器人在接替我們的工作,而是更多的機器使我們的工作變得簡單了。這種轉變將導致人工智慧被接受的速度比一些機構預測的更快。
機構的重組即將開始
這將會是一個漫長的過程,但一些高瞻遠矚的機構已經在破除將數據分成獨立倉庫和把員工分成獨立單元的做法。一些機構也已經開始大量地組織人工智慧和其他數字技術的培訓。這些培訓不只是教授新的技能,它將教授一種新的著重於與同事和人工智慧合作的思維。
2. AI 將來到我們身邊
很多出版物描述的人工智慧驅動的未來看起來非常神奇:從不會發生事故或發生交通擁堵的自動駕駛車隊、在毫秒內就能診斷疾病的機器人醫生以及優化人力和貨物流動的智能基礎設施等。所有的這些都會來到我們的身邊,但不會在 2018 年就實現。
啟示
商業問題將為 AI 打開大門
領導者並不需要完全採用 AI,但在他們尋求商業需求的最佳解決方案時,AI 將發揮越來越重要的作用。你認為商業組織是否希望有自動化記賬、一般會計和預算以及其它更多合規職能?是否希望部分實現採購、物流和客戶服務等過程的自動化?人工智慧很可能成為解決方案的一部分,不論使用者是否察覺到了它。
需要新的投資回報率(ROI)度量方法
有時候衡量 AI 價值最好的方法就是使用與其它商業投資相同的度量標準:度量收入的增長或者其他開銷的降低。但是 AI 最強大的優勢通常是間接的,因此商業組織可能會希望探索其它的 ROI 度量方法。自動化全職等效人數(FTE)能夠捕捉 AI 如何從平凡的工作中釋放人類勞動力。其它的指標還可以展示 AI 如何能改善人類的決策制定與預測。
54% 的企業高管表示,在他們的業務中使用 AI 解決方案已經提升了生產力
3.AI 將幫助回答關於數據的重大問題
許多公司管理人沒有看到他們投資大數據的收益。然而業務和技術高管認為他們可以利用這些數據做更多的事情,這其中存在著溝通隔閡。但問題是學習曲線陡峭、工具仍不成熟,且面臨著相當大的結構組織方面的挑戰。
與此同時,商業組織當前還是可以利用新工具和技術進步的優勢,包括:
挖掘結構化不足的數據的簡單方法,包括用於文本索引和分類的自然語言處理
包含更多 AI 成分的企業應用套件
新興的 lake-as-a-service 數據平台
利用不同類型數據的公共雲平台
自動化的機器學習和數據管理
啟示
成功將引領成功
那些已經在一項應用中成功執行數據管理的企業將會在下一個計劃中領先一步。他們將開發最佳實踐以有效利用數據資源,並跨組織邊界進行工作。
第三方數據提供商將蓬勃發展
商業組織準備內部數據而支持人工智慧和其它創新是無可替代的,但是可以有補充:供應商越來越多地提供公開數據源,並將其組織成數據池以為 AI 的應用做準備。
更多的合成數據將到來
隨著數據變得更加有價值,合成數據和其它精簡或增強數據學習技術將加速進步。例如,我們可能並不需要一整支自動駕駛車隊在道路上生成的數據,而只需要少數車輛加上複雜的數學運算就能滿足模型的訓練。
59% 的管理人員表示通過使用 AI,他們公司的大數據已得到了提升
4. 功能專家將決定 AI 人才競爭的勝利,而不是科技迷
隨著 AI 技術擴散到越來越多的具體領域,數據科學家和 AI 專家通常缺乏的知識和技能將變得越來越重要。
目前在計算機科學家之間已經展開了投標戰,但要使 AI 技術獲得成功,目前的頂尖 AI 人才資源還不夠。機構需要引入能與 AI 專家合作的領域專家。他們並非一定是程序員,但他們必須理解數據科學和數據可視化的基礎,以及 AI 的工作(思維)方式。
隨著 AI 走出計算機實驗室並進入日常工作流程,這些領域專家甚至將比計算機科學家更重要。很多領域專家將需要適當地學習新技能。
啟示
更快地提升技能意味著更快的 AI 部署
希望依靠 AI 優勢發展的企業不該僅僅在最聰明的計算機科學家上投資。如果他們希望讓 AI 技術更快地迭代和更高效地運行,他們應該為功能專家提供對 AI 技術的理解能力。更大型的機構應該分清輕重緩急,即確定 AI 技術更可能首先出現失敗的地方,並從這裡開始優化。
通過提升技能可以獲得新的學習方法
機構需要提升他們大量員工的技能,即學習數據科學的基礎和開發 AI 應用的思維方式。這項任務影響重大,企業必須尋找評估高潛能學習者的技能的方法,並給予他們個性化的學習路徑,從而能快速地提升自我。
除了 AI 技術以外,67% 的工作將需要應用數據科學和分析技能。
5. AI 使網路網路攻擊更強大,不過網路防禦也更強大了
AI 在哪項工作中已經顯露超越人類的能力?黑客。比如,機器學習可以輕鬆使得惡意攻擊者追蹤你在社交媒體上的行為,然後為你定製釣魚推特或電子郵件。人類黑客無法這麼快、這麼好地完成這項工作。
AI 越發展,其對網路攻擊的影響就越大。先進技術,如機器學習、深度學習、神經網路,使計算機找到和破譯模式。它們還能找到和利用漏洞。
智能惡意軟體和勒索軟體隨著擴展不斷學習,機器智能輔助的全球網路攻擊,先進的數據分析師來定製攻擊,很不幸,這些可能很快就沖著你的組織而來。AI 本身,如果不好好保護,也會生成新的漏洞。比如,惡意使用者可以向演算法的訓練數據集中添加有偏數據。
啟示
不要拿雞蛋去碰石頭,要選擇合適的武器
從企業層面來看,很多公司可能會選擇降低在 AI 方面的發展或利用速度,但是網路安全不能停滯不前:攻擊者將使用 AI,因此防禦者也必須使用 AI。如果一個公司的 IT 部門或網路安全提供商沒有使用 AI,那麼它必須立即思考 AI 在安全方面的長短期應用。使用案例包括分散式拒絕服務攻擊(DDOS)模式識別、優先處理升級和調查日誌警報,以及基於風險的認證。
網路安全可能加速企業對 AI 的接受度
謹慎看待和使用 AI 的公司為了網路安全也將使用 AI,網路防禦將是很多公司使用 AI 的第一次嘗試。進一步刺激公司接受 AI 的地方在於數據需求:AI 在公司內部可獲取數據的規模越大,其防禦網路威脅的能力越強。一些公司已經構建基於雲的預置「威脅湖」,其利用了 AI 的能力。
AI 黑客可能增加公共恐懼
很多人對 AI 感到焦慮不安,更多人擔心網路安全。很可能今年 AI 登上頭條時,不是因為它幫助了人類,而可能是它幫助了一次大型黑客行為。更好的網路安全可以緩解這種風險。除了為 AI 能力開發特徵集,網路安全性增強還要求企業增強數據和計算平台,支持高級分析師擁有優先許可權進行監控、對象級變化管理、源代碼 review 和擴展的網路安全控制。
27% 的公司高管稱其公司今年計劃在使用 AI 和機器學習進行網路安全保障方面進行投資。
6. 打開 AI 的黑箱將成為優先考慮的事
AI 自主武器會成為連環殺手嗎?被命令減少空氣污染的 AI 系統會決定最合乎邏輯的方式是消滅人類嗎?這樣的恐懼可能對驚悚片有利,但是這種危險可以管理。
這裡介紹一下很多 AI 支持者不願意提及的秘密:AI 並沒有那麼智能,至少目前是這樣。儘管 AI 在模式和圖像識別、自動化執行複雜任務、幫助人類決策方面越來越強大,但它仍然只能用於特定任務,且不具備像人那樣的智能。
現實風險
如果 AI 總是可控的,那麼它未必總是可理解的,很多 AI 演算法超出了人類的理解。很多 AI 供應商沒有揭露其程序保護知識產權的原理。在這兩種情況中,AI 作出了決策,但其終端用戶並不清楚它如何作出的決策。這就是「黑箱」,我們無法看到它的內部是什麼。
啟示
很多黑箱將被打開
我們期待企業能夠面對終端用戶和監管機構不斷增長的對於部署可解釋、透明和可證明的 AI 技術的壓力。這可能需要 AI 供應商共享一些秘密,也可能需要深度學慣用戶和其他先進 AI 科學家開發新技術,來解釋之前不可理解的 AI。
企業面臨權衡
大部分 AI 可以解釋,但是成本高昂。和其他任何流程一樣,如果每一步都必須歸檔和解釋,則流程變慢,成本增長。但是打開黑箱將降低某些風險,幫助建立利益相關者的信任。
企業需要 AI 可解釋性決策的框架
可解釋性、透明度和可證明性不是絕對的,它們依據於一個標準而存在。一個評估商業、性能、監管和信譽的框架可以幫助做出最佳決策,使每個 AI 使用案例能夠按照該標準進行。使用 AI 幫助制定生死攸關的醫療決策的醫療公司和確定潛在目標的私募股權基金的需求是不同的。
7.將會重拳出擊人工智慧的國家
人工智慧將出現巨大增長:根據我們的研究,人工智慧產業規模在 2030 年將達到 15.7 萬億。人工智慧這張大餅已經超過了任何公司,很多國家在研究出台新戰略從而獲取最大利益。
美國一開始就很強勢,2016 年接連發布三份報告,其中列出了一個讓美國變成人工智慧強國的計劃,以促進經濟和國家安全。
建議包括增加聯邦經費、制度調整、創建分享公共數據集和環境、對標準和標杆的定義、勞動力發展,及使用人工智慧增強網路安全和軍事力量。
但自 2017 年川普執政以來,(美國)政府已經放棄了這項計劃,政府在消減人工智慧研究經費。
但最近通過的稅費改革可以使人工智慧在美國蓬勃發展。降低企業稅政策、海外回遷現金政策以及允許增長海外 100% 的投資非常可能鼓勵人工智慧和其他領域的科技發展。最近行政機構注重的放鬆管制政策可在很多方面幫助人工智慧發展,比如在無人機和無人駕駛車領域。
啟示
中國的投資將會喚醒西方
如果中國開始製造領先的 AI 應用,西方將會回應。不管是「(前蘇聯)人造衛星時刻」,還是逐漸認識到其在失去主導地位,西方政策制定者可能感受到了改變規則並為 AI 提供資金的壓力。
將會出現更多的國家和地區策略
更多的國家將會發布影響公司的 AI 策略。不難看到歐洲已經發布一般數據保護條例(GDPR)保護個人數據,並制定了在該區域促進 AI 的政策。
協作也會到來
AI 的國家之爭不會停止。但是我們確實希望聯合國、世界經濟論壇和其他多邊組織提供更多的機會,推動不同國家在 AI 研究領域的國際合作。
8. 對負責任 AI 的壓力不會僅限於科技公司
新技術經常會帶來不知是否合理的新恐懼,並且影響超出陰謀論者的範圍之外。據 2017 年 PwC 調查,77% 的公司 CEO 認為 AI 和自動化將進一步影響並瓦解他們的業務運作方式。如果我們詢問政府官員,答案將會相似。領導者們將很快不得不面對有關 AI 的棘手問題。他們可能是社區組織,擔憂不公的選民,也可能是擔心可靠性的客戶,或者是關心風險管理、ROI 和品牌的董事會。
在上述所有情況中,利益相關者想要知道組織和機構正負責任地使用 AI,從而完善了業務,強化了整個社會。我們相信,將負責任地使用 AI 作為準則才是壓力的來源。
啟示
負責任 AI 的新結構
當面臨設計、構建和部署值得信任和激勵的 AI 系統時,許多公司會建立團隊和流程來尋找數據和模型之中的偏見,密切監控惡意行為者可能「欺騙」演算法的方式。人工智慧治理委員會也可能適用於許多企業。
公私合作以及政府與公民的合作
負責任地使用 AI 的最好方式之一是推進公、私部門機構之間的合作,尤其是當涉及到 AI 的社會影響之時。同樣,當越來越多的政府探索如何使用 AI 來有效分配服務,公民也就逐漸參與到這個過程之中。比如,在英國,RSA(鼓勵藝術、製造和商業的皇家學會)正在進行一系列有關在刑事司法和民主辯論中使用 AI 及其倫理學討論的公民陪審團。
加強負責任創新的自律組織
由於監管機構可能著急趕上,且自我監管有其局限,自律組織(SRO)可能會帶領負責任的 AI。SRO 根據特定原則把 AI 用戶聚集在一起,然後監督和規範合規性,按需徵收罰款,並將違規行為提交給監管機構。這是一個已在其他行業使用的模式,可能也同樣適用於 AI 及其他技術。
本文為機器之心編譯,轉載請聯繫本公眾號獲得授權。
?------------------------------------------------
※OpenAI提出新型神經網路:自動計算詞對象,實現實體消岐
※LeCun卸任成劇變?看FAIR研究員田淵棟如何看待
TAG:機器之心 |