如何讓「演算法公平」成為機器學習的一部分?
來自 Ahmed Abbasi, Jingjing Li, Gari Clifford和Herman Taylor
編譯: 王健飛劉夢喬
大數據和人工智慧的崛起,為我們的生活帶來了許多的便利。
當我們打開新聞客戶端,看到的不再是千篇一律的編輯推薦,而是AI引擎對我們日常喜好進行學習後精心準備的新聞;當我們打開電商 App,看到的不再是商家想要賣什麼,而是我們想要買什麼;當我們打開旅遊網站,看到的也不再是那些人滿為患的旅遊經典而是為我們量身定製的旅遊路線。
但同時,這也為我們帶來了一些隱憂——由於每個人看到的內容都是不同的,那麼AI是否會把更貴的產品賣給我,或是更偏激的觀點推送給我?
事實上,這是完全有可能的,在國內甚至已經有了一個專有名詞來形容這一現象「大數據殺熟」。
但有時,演算法不止決定了商品的價格和推送的內容,隨著人工智慧被應用於反恐、徵稅、案件預審、醫療、保險等公共領域,演算法的判斷還決定著我們每個人的公民福祉。
這樣的例子在全世界已經多次發生,比如Twtter的聊天機器人在上線一天之後就被網友「教」成了滿嘴髒話的壞孩子,不得不被迫下線;Google Photos 的照片智能識別功能將黑人與黑猩猩分成了一組;求職網站的廣告會默認為女性用戶推送比男性用戶薪水更低的廣告等等……
在美國,甚至有法官對一個僅有偷車行為的嫌犯下達了 8 年有期徒刑的判決,理由只是因為協助審判的人工智慧工具 COMPAS 認為此人「極具危險」。
正如我們之前在《西部世界,能給現實世界的人工智慧帶來怎樣的啟示》一文中提到的,由於人工智慧(無論是現實中還是科幻作品中)總是通過一個快速且脫離人類社會與歷史的學習來完成自我構建,所以他們存在天生的「道德缺陷」。
那麼,在現實中是否有一種方法,能夠將反歧視——或者說演算法公平——植入到機器學習模型的設計中呢?
答案是:或許可行。
在最近的一期哈佛商業評論上,弗吉尼亞大學麥金泰爾商學院商業分析中心的副院長 Ahmed Abbasi、弗吉尼亞大學麥克因泰爾商學院的信息技術助理教授李晶晶、埃默里大學生物醫學信息學系主任 Gari Clifford 和默爾豪斯醫學院的醫學教授和心血管研究所所長 Herman Taylor 聯合署名發表了文章Make 「Fairness by Design」 Part of Machine Learning,文章從產品構建的角度闡釋了一些防止演算法歧視的思路。
之所以這篇文章的作者中有幾位醫學專家,是因為這些經驗是他們在一個與美國聯邦政府合作的物聯網醫療平台設計中總結出來的。
該項目通過移動終端和各種物聯網設備搜集數據,通過機器學習模型對這些數據進行處理並形成中風和早期心血管疾病的預測,並幫助醫生做出診療判斷。
在項目設計中,他們採用了這些步驟來減少演算法形成種族、性別歧視的可能性:
1、將數據科學家與社會科學家組隊
通常來說,數據科學家與社會科學家有著不同的話語體系。
對於數據科學家來說,「bias」(偏差/偏見)具有特定的技術含義——它特指的是分類模型中的分割水平。
類似地,術語「discriminatory potential」(判別潛力/歧視性潛力)是指模型能夠準確區分數據類別(例如,判斷心血管疾病高風險和低風險的患者)的程度。
在科學數據中,找到更大的「歧視潛力」是首要目標。相比之下,當社會科學家談論 bias 或 discriminatory potential 時,他們更可能是指公平問題。社會科學家通常能夠更好地提供關於公平和偏見的人文觀點。
在他們的項目中,從一開始就確保包括心理學家、心理計量師、流行病學家以及專門處理不同人群健康的人在一起工作。這使整個項目團隊能夠更好、更及時地了解可能蔓延到機器學習過程中的人口偏差。
2、謹慎打標籤
在構建模型之前,團隊拿到的原始大數據往往並非是結構化的,比如用戶輸入的大段文字或是一些影像學檢查的圖片。
而這些非結構化的數據會先經由人類進行一次結構化的打標籤,再用於訓練機器學習模型。
這種做法在機器學習領域十分常見,比如 Google Photos 就有一個頁面允許你幫助判斷一張圖片是否是貓。
在更複雜的情況下,可能還需要讓人工來判斷哪些文本帶有正面情緒,哪些是負面情緒。
人工打標籤服務已經成為一種大數據時代的典型商業模式,許多眾包平台和外包公司都會承接科技公司海量的數據流水打標籤。
但由於人類本身就存在基於文化、種族和宗教的偏見,因此在打標籤過程中這種偏見可能被轉移到結構化的數據上。
在文章作者的項目中,他們預計這可能會給最終模型帶來偏見。
比如,儘管兩人的健康水平(理想值)是相當的,但如果一個人的資料中含有大量的拼寫錯誤和語法錯誤,那麼他或她就有可能被批註人員在某些數值上打上更低的分。
這最終可能導致健康預測模型會形成對語法或拼寫錯誤者存在健康偏見。
作者發現,減少這種偏見的方法是在針對打標籤者的培訓中要引入關於潛在偏見可能性案例的模塊。但是,在他們的項目中由於更依賴於用戶提交的自我結構化數據,因此不存在這一問題,因為用戶不會自我歧視。不過,這偶爾也會帶來一些其他問題。
3、將傳統的機器學習指標與公平度量相結合
在過去,評價一個機器學習模型的好壞總是使用一組與性能相關的指標來實現。比如整體性能、類級性能或是模型的普遍適用性等。
而在對機器學習模型的評價中引入公平性量度可以很好的糾正一些由於偏見或歧視引發的問題。這事實上也是對機器學習模型性能的一種改進,因為修正了這些問題,意味著機器學習模型不再對某些特定群體做出偏差很大的測算,從而可以提高整體的準確性。
在作者的項目中,研究人員檢查了模型在不同的人口群體中的表現,以及基本的模型假設。納入的重要公平措施包括內部和跨部門的真/假、正/負比率以及對人口變數的依賴程度。
對於目前看似公平的部分而言,如果人口變數相對於其他變數有很大的權重,並充當預測的主要推動者,那麼未來的數據中可能存在偏見的可能性。
4、採樣時,平衡代表性與群聚效應臨界點(critical mass constraints)[1]
在剔除無關歧視性數據的同時,並不代表不對某些特定的極端情況進行考慮。在傳統的統計學採樣中,一般認為只要能反應出所採樣的整個群體的特徵即可。
這種做法存在的一個問題是,它低估了整個群體內包含的某個特定少數群體所發生的病例。表面上看,這似乎並不是一個太大的問題。因為模型依然可以「準確」的預測整個群體的發病幾率。但是當落實到這些特定群體的個體時,模型就會對他們發病幾率的預測就會出現顯著的偏高或偏低。
在作者的項目中,他們採用了對某些與疾病相關的人口群體案例進行大量過度抽樣的方法,來刻意滿足最終形成的機器學習模型在預測一個「普通人」和預測一個「特殊群體」時都能給出更正確的答案。
5、比起技術手段,更重要的是保持意識
文章提到,即便是採用了上述措施,也不能完全消除在模型構建中出現歧視的可能。所以他們通常要在模型構建和訓練的各個階段停下來去檢查是否有潛在的歧視因素捲入了模型。
作者還提到了兩種方法用以對形成歧視的模型進行糾偏,一種是將訓練數據中所有與人口學相關的信息剔除;另一種是將額外的公平性措施引入機器學習,比如上文提到的手工放大、縮小少數族群或邊緣案例的重要性。
在作者的項目中,他們發現這樣糾偏的行為對於演算法訓練中容易受到人口學偏見影響的部分十分有效。在這樣一套規則實施下來之後,模型最終的公平性量度顯著提高,而模型的整體精確度也搞了幾個百分點。
在 Facebook、Google 和各類互聯網公司相繼爆發了「演算法歧視醜聞」之後,歐美已經掀起了一陣反演算法歧視的熱潮。許多技術人員對這一運動的直觀印象並不好,認為「政治正確毀掉了技術創新」。
但在作者看來,設計公平性並不是要把政治正確優先於模型準確性之上。通過仔細的設計和思考,設計公平性有助於研發人員開發出更可靠的高精確性模型。它讓機器更加深刻的理解了每個人口學要素背後的複雜性。
引入設計公平性並不是通過一條「人人平等」的原則來抹平機器學習的成果,而是要引入相互對立的視角,從不同人、不同群體、不同階層的視角反向審視機器學習過程中的不同階段。
在作者的Stroke Belt項目中,設計公平性使他們能夠開發出具有更高整體性能,更廣泛的人口適用性和更穩健的預測模型——這使得醫療保健系統能夠更準確的提前干預高危人群。
也許每一個還在追求模型效率與性能的演算法工程師,都應該開始考慮將設計公平性引入自己的工作當中。因為這不止會讓你建立更公平的模型,也能讓你達到你本來的目的——一個更完美的模型。
[1]群聚效應 (Critical mass)是一個社會動力學的名詞,用來描述在一個社會系統里,某件事情的存在已達至一個足夠的動量,使它能夠自我維持,並為往後的成長提供動力。
以一個大城市作一個簡單例子:若有一個人停下來抬頭往天望,沒有人會理會他,其他路過的人會照舊繼續他們要做的事情。如果有三個人停了下來抬頭望天,可能會有多幾個人會停下來看看他們在做甚麼,但很快又會去繼續他們原來的事。但假若當街上抬頭向天望的群眾增加至5到7人,這時,其他人可能亦會好奇地加入,看看他們到底在做什麼。其中3人、5人,便是這個群聚效應的臨界點。
?本文參考文章《Make 「Fairness by Design」 Part of Machine Learning》原文:https://hbr.org/2018/08/make-fairness-by-design-part-of-machine-learning
TAG:機器學習 |