對人工智慧「踩點剎」的六個理由
關鍵訊息,D1時間送達!
人工智慧正在逐漸進入業務流程。但是首席信息官們應該停下來研究一下人工智慧工具的潛在商業影響——不管影響是好是壞。
2017年,人工智慧的炒作達到了頂峰,首席信息官、顧問和學者們紛紛宣稱這項技術可能會將這一切自動化——從商業和IT運營到客戶聯絡。然而,在2018年的第一個季度就有幾家媒體報道了人工智慧的危險,其中包括培訓計算機執行那些往往需要人類智能的任務。
講授認知技術課程的巴布森學院的傑出教授Thomas Davenport說:「媒體上充斥這麼多關於人工智慧的炒作,而這只是記者試圖通過談論消極的一面來擴大宣傳。」
也許是這樣吧,但這些擔憂並不是什麼新鮮事兒,而且不會持續下去,從對種族、性別和其它偏見的恐懼,到失控的自動駕駛的無人機都有可能帶來致命後果。
在《MIT技術評論》發表了一篇題為《當人工智慧終於致人死亡時,誰來負責?》的故事的一周後。此文提出了這樣一個問題——如果有一輛自動駕駛的汽車把人撞死,有一輛自動駕駛的優步汽車在亞利桑那州撞死一名女子,什麼樣的法律適用於這個問題。如他所言,時機決定了一切。
記者會在下文詳細介紹一些有關人工智慧採用的問題,然後是對希望測試該技術的首席信息官提出的一些建議。
有關人工智慧的六大擔憂
1. 太粗魯了
正如我們從微軟的災難性的聊天機器人Tay事件中了解到的,會話式消息傳遞系統可能是荒謬的,無禮的,甚至是唐突的。首席信息官們必須小心翼翼地對待他們所使用的東西,以及他們使用這些東西的方式。聊天機器人只消有一次唐突的,亂扣帽子的行為就能摧毀品牌的友好形象。
2. 認知不佳
谷歌的人工智慧科學家兼斯坦福大學李飛飛教授在《紐約時報》的一篇專欄文章中稱,儘管人工智慧是由人類開發的,但具有諷刺意味的是,人工智慧根本不像人類。李飛飛指出,儘管人類的視覺感受高度情境化,但人工智慧感知圖像的能力有很大的局限性。
李飛飛說,人工智慧程序員可能必須與各領域的專家合作——回歸該領域的學術根源——縮小人與機器感知之間的差距。
3. 黑匣子難題
有很多企業想使用人工智慧,它包含一些可能提供戰略優勢的活動,但金融服務等行業的公司必須小心翼翼,他們可以解釋人工智慧是如何得出其結論的。房利美(Fannie Mae)的運營兼技術負責人Bruce Lee說,使用Nest溫控器這樣的產品來管理電費的房主可能會有更多的自由現金流(free cash flow)來償還抵押貸款,這種推斷也許是合乎情理的。但在監管機構的眼中,讓人工智慧具備這樣的資質是有問題的。
李飛飛告訴記者:「在你開始著手這種有關公平借貸的問題時——如何偏倚樣本集,你會否漸漸向使用Nest的人提供更好的抵押貸款利率?人工智慧在信貸決策這樣看似明顯的領域的事情中,實際上充斥著要掃清的監管障礙,所以我們所做的很多事情都必須進行徹底的回溯測試,以確保我們不會帶來不當的偏倚,並確保這對住房基礎設施是一種凈收益。人工智慧必須要解釋得通。」
如果人們不清楚人工智慧軟體如何檢測模式並觀察結果,那麼冒著法規風險的公司就會懷疑機器的可信度。Fox Rothschild律師事務所的技術實踐聯合主席Dan Farris說:「情境、道德和數據質量是影響人工智慧的價值和可靠性的問題,特別是在受到高度監管的行業中。在所有受到高度監管的行業部署人工智慧都可能會造成合規性問題。」
4. 民族志,社會經濟方面的偏差
斯坦福大學的博士生TimnitGebru在進行一個項目——該項目使用谷歌街景(Google Street View)的汽車圖片來確定所有美國城鎮的人口結構。她對研究中的種族、性別和社會經濟偏差感到擔憂。彭博社的報道稱,這一啟示促使Gebru加入微軟,她在那裡努力挖掘人工智慧的偏差。
即使是人工智慧虛擬助理也受到偏差的困擾。你有沒有想過為什麼Alexa、Siri和小娜(Cortana)等虛擬助理技術都是女性角色?客戶服務軟體公司LivePerson的首席執行官Rob LoCascio向記者表示:「為什麼我們將這些『助理』技術定性為女性?就我們對世界和職場女性的期望,這意味著什麼?女性本質上是『助手』,她們『愛嘮叨』,她們扮演行政角色,她們善於接單?」
5. 用於攻擊的人工智慧,致命的攻擊
劍橋大學、牛津大學和耶魯大學的25位技術和公共政策研究人員撰寫的一份長達98頁的報告稱,人工智慧的快速發展意味著這樣的風險——惡意用戶很快就會利用該技術發動自動的黑客攻擊,模仿人類傳播錯誤信息或將商業無人機變為有針對性的武器。
牛津大學人類未來研究院(Oxford』s Future of Humanity Institute)的研究員Miles Brundage告訴路透社:「我們都贊同人工智慧有很多積極的應用。有關惡意使用問題的文獻中存在一個缺口」。《紐約時報》和Gizmodo也刊登了題為《人工智慧的惡意使用:預測、預防和緩解》的報告。
6. 人工智慧會把我們變成家貓
接下來是奴役論。以特斯拉和SpaceX聞名遐邇的企業家埃隆馬斯克(Elon Musk)警告說,人類冒著這樣的風險——變成依賴成性的「家貓」——受具有卓越智能和功能的人工智慧奴役。最近,以色列歷史學家Yuval Noah Harari認為,一切自動化的人工智慧的出現可能會造成一個「全球無用階級」。在這樣的世界裡,民主會受到威脅,因為人類不像機器那樣了解自己。
IT,頑強的IT
Davenport說,一般來說,這些擔憂在很大程度上被誇大了。例如,他說偏差也長期存在於正常分析項目的範圍內。Davenport說:「就我所知,從事過分析工作的人都不會否認偏差的存在。Davenport最近寫了一本新書——《人工智慧優勢,關於大型企業採用人工智慧的所有事情》,他說,幾家大公司正在認真地測試人工智慧。
Davenport說:「如今我們看到很多企業應用程序,而且我還沒有聽到有人說我們將停止IT計劃」,他補充說,這項技術仍然不成熟。「明智的公司還在繼續努力研究這些東西,並且儘力免受媒體搬弄是非的威懾。」
事實上,Gartner的統計指出,IT領導者似乎基本上不受炒作的困擾,因為超過85%的首席信息官將在2020年通過購買,構建和外包的方式對人工智慧計划進行試點。雖然Gartner建議首席信息官們在這些領域建立智能的虛擬支持功能——在這些領域裡,客戶和公民希望通過基於人工智慧的助手進行調解,但他們還必須與業務夥伴攜手構建數字化道德戰略。
版權聲明:本文為企業網D1Net編譯,轉載需註明出處為:企業網D1Net,如果不註明出處,企業網D1Net將保留追究其法律責任的權利。
(來源:企業網D1Net)
企業網D1net已推出企業應用商店(www.enappstore.com),面向企業級軟體,SaaS等提供商,提供陳列,點評功能,不參與交易和交付。現可免費入駐,入駐後,可獲得在企業網D1net 相應公眾號推薦的機會。歡迎入駐。
※更側重於結果的機器智能
※找到人工智慧人才的六種方法——你找對地方了嗎?
TAG:CIO信息主管D1net |