當前位置:
首頁 > 最新 > 安永分析與諮詢全球主管:AI道德框架首要核心是盡量避免偏向性

安永分析與諮詢全球主管:AI道德框架首要核心是盡量避免偏向性

騰訊科技 文 | 陸嶼

近年來,人工智慧(AI)的應用發展飛速。根據Gartner 2019年CIO調查報告顯示,過去四年中實施人工智慧的企業數量增長了270%,而且在過去兩年中增長了3倍,幾乎所有行業的企業組織都在各種應用中採用人工智慧。

與此同時,AI在道德倫理等方面成為了核心關注點,全球人工智慧專家吳恩達也曾對此表示擔憂:「很多企業高管並不能真正了解AI能做和不能做什麼。」

到現在,國際人工智慧界也在不斷推動相關技術標準及社會規範的研討和制定,如IEEE全球人工智慧與倫理倡議、阿西洛馬人工智慧23條倫理原則等等。還有科技公司巨頭也紛紛加入,比如Facebook成立了一支專註於人工智慧開發倫理的特殊團隊,以確保該公司所研發的人工智慧演算法是公平的,並且能讓所有人都受益。

具體來說,AI技術給企業帶來了哪些方面的變革?企業在運用AI技術的同時又該如何應對和設置相關的道德框架與標準? 安永分析與諮詢全球主管Beatriz Sanz Saiz對此接受了騰訊科技的專訪,做出了相關的分享和解答。

AI對企業的變革影響力有三大關鍵詞

騰訊科技: 大數據和AI技術對企業有什麼作用?大數據應用會給企業帶來什麼風險?

Beatriz Sanz Saiz:我們認為算力是AI的核心所在。當然我們考慮的不是AI本身,而是能將AI技術嵌入或者融合到業務的方方面面。比如說以定製化為中心、以產品為中心、以客戶為中心等業務方案中,AI技術都是可以在其中起一定的作用。

AI目前還存在著一些風險,比如說涉及到了跟系統有關的信任問題,對於很多企業來說很難向客戶去證明AI產生的結果。對此我認為其實人類需要的不是去監管AI,而是在此基礎上有一個更強的AI。我們必須得知道AI如何會影響和改變到人類的社會競爭關係。在這裡有幾個關鍵詞要分享:

第一個是數據。分析數據的AI將會是非常重要的能力。在過去的幾年當中,對於各個公司來講,數據成為了非常重要的分界線,在2022年的時候,90%的公司的戰略就會直接的以數據為驅動力,而且數據將會是非常重要的資產。

第二、生產率。生產率是我們現在在進行工業革命的時候要解決的問題,我們要把人類的生產率和機器生產率要結合在一起。並且在進行規模化生產時,我們也不單單只是用通過人工的規模,在未來我們將會把它放在機器的規模上。

第三、人才。AI對人才競爭會造成顛覆性的影響。比如說物聯網、AI和區塊鏈之類的新興技術,可以幫助傳統的企業和行業進一步的革新自己,從而改變行業對人才的需求。

AI的道德倫理方面需要企業內部和產業協同

騰訊科技:AI技術只是更為智能帶並不代表安全,企業又該如何讓用戶信任AI新技術的安全性呢?

Beatriz Sanz Saiz:目前業界都在關注AI技術安全性方面的問題,其實信任涉及到一系列的符合標準,比如包括平台系統的問題。實際上,我認為人們要更新一個認知,就是AI更多的是和自動化有關,但並不會幫助我們解決所有的問題。

保護客戶以及獲取數據的安全性才是至關重要的。在這裡我想與各位分享和關注幾個概念,就是什麼叫做「開放的平台」,什麼叫做「用於數據交流的平台」,以及「數據在什麼程度上進行開放」。

我們在跟一些企業溝通的時候,發現很多企業是願意開放交流的。但是這其中有一個重要的問題我們必須要理清,就是在獲取了這些數據之後,我們如何保護、治理和管理這些數據。比如在安永的內部,有一些專門戰略性的項目是關於數據網路的,我們需要考慮的就不僅是客戶的安全,還要考慮如何保護一些雲端的供應者。

另外,我建議企業要有一個專門的框架,這個框架是涉及道德和信任的,這也需要業界的合作,在幾周後我們將會參加一個主題是「關於AI的管理」的全球性峰會,有很多國家的與會者都會來討論一些文件,一起討論未來企業的走向是怎麼樣的、各個國家的情況是怎麼樣的、核心的問題是什麼。總之,我們要討論的是AI跟道德、信任有關的內容,以及各國應該如何以更有責任感的心態去應用AI等等。

AI的道德框架首要核心要盡量避免偏向性

騰訊科技:您剛才提到了公司內部會設立一個AI在道德方面的框架和標準,這個框架具體是如何制定的?您對企業在這些方面的推進有哪些建議?

Beatriz Sanz Saiz:首先,框架是要基於技能基礎上實現的。其中有些要素需要注意,比如要考慮到每一個終端的消費者,他們是怎麼樣運用AI的,如何以有道德的方式運用AI。我建議所有人及企業都必須了解到,為什麼要談論AI、為什麼要運用AI,還有以什麼樣的目標為導向,去帶有目的性去制定框架。

我建議企業在培訓和建成一個模型的時候,要盡最大的可能的避免可能存在的偏向性。舉個亞馬遜的例子,亞馬遜在應用AI的時候,證明他們在僱傭員工的男女性別方面有偏向性。再比如,如果是風險行業、金融市場包括一些財富管理公司,這些都跟深度學習有關,這是一個新的問題,會涉及新的模式,當然也不可避免會有一些問題的存在。但我們能做的就是繼續收集和分析數據,注重數據本身的品質和質量,而且儘可能避免偏向性的存在。

另外,我們必須考慮到這些演算法最終涉及的利益相關方是誰,比如說是消費者還是法規制定者,還是每個公司的員工等等。這就涉及到是否完全達成了透明度,透明度指的是我們怎麼樣運用這些信息的,還有其中演算法的表現如何、在未來給利益相關方帶來什麼樣的影響,以及利益相關方是哪一位或者哪一個群體等等。

一般來說,我們和一些企業溝通的時候,他們可能理解的就是數據的管理還有包括運作模型等等。現在反而我們會跟他們說建議少談一些演算法,不要一直糾結在演算法或者關於AI的指數級增長等方面。我呼籲所有的企業看重的不僅是找到這些解決方案,更多的是怎麼把AI治理做的更好。和兩年前對比,這部分的推進和發展速度非常快,而且遠遠超乎一個企業的討論範疇,它已經涉及到國家層面甚至是全球層面,波及範圍非常之廣。

總的來說,其實關於AI或者大數據,它只是一個參考點。我們把它引入到客戶的概念中,是讓他們更好的理解市場,提供另外一個角度去了解為什麼數據可以這樣被應用,這些是他們需要了解到和考慮到的。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 看前沿科技 的精彩文章:

SICC大會發布銀行用戶體驗報告,產業互聯網時代如何服務創新
美國未向嫦娥四號團隊共享數據?官方說法來了

TAG:看前沿科技 |