對抗AI偏見巨擘動起來,IBM研究院開源9個AI偏見防禦演算法
科技中立,但人製造出來的 AI 卻可能帶有偏見或歧視。自去年底以來 AI 偏見(AI Bias)就成為學術界及人工智慧行業疾呼需要解決的問題,軟體巨擘 IBM 在美國時間 19 日宣布將IBM Research 研發的偏見檢測工具—AI Fairness 360 工具包開源,包括超過 30 個公平性指標(fairness metrics),和 9 個偏差緩解演算法,研究人員和開發者可將工具整合至自己的機器學習模型里,檢測並減少可能產生的偏見和歧視。
目前談論較多的 AI 偏見情況像是性別歧視、種族歧視,例如面部偵測演算法在識別白人時的準確率比識別黑人高許多,男性跟女性類別也存在類似問題,讓軟體識別犯罪嫌犯人選、企業挑選求職者時,也曾引發歧視問題。
另外,AI 偏見也超出了性別和種族,越來越多 AI 被應用在銀行信用評等、保險費用計算,而且還影響決策者做出批准或拒絕貸款、甚至是要不要賠償保險的決定,但這些都可能因為數據集不完善或缺乏多元性,讓 AI 做出不合宜的判斷結果,對社會造成不小的影響。
因此 IBM 率先選擇了 3 個領域的應用,作為 AI Fairness 360 工具包的示範教學,這三個領域分別是信用評等、醫療保健支出評分、面部識別中的性別偏見。以及 9 種演算法,包括預處理優化、Reweighing、對抗性偏見等。
圖|IBM 提出開源 9 個 AI 偏見防禦演算法(圖片來源:IBM)
一直以來 AI 的黑盒子問題不僅困擾著研究人員及企業,同時也限制了 AI 邁向大規模部署,IBM Watson Data 及 AI 副總裁 Ritika Gunnar 就表示,人工智慧模型缺乏信任和透明度正在阻礙企業的部署,這是一個真正的問題。為了解決相關難題,行業有幾個趨勢,一是發展非監督式學習(Unsupervised Learning),像是 Facebook AI 首席科學 Yann LeCun、卡內基梅隆大學(CMU)教授 Zachary Lipton 等人都積極推動非監督式學習。另一個方向就是透過工具來提高AI 可解釋性及透明度。
除了 IBM,谷歌在上周也開源了一項名為「What-If Tool」的探測工具。谷歌在官方博客上指出,建構有效的機器學習系統,光是訓練模型是不夠的,應更好地理解模型,像是數據點的變化將如何影響模型的預測?它對不同的群體有不同的表現,例如被邊緣化的人群?數據集的多樣性又是如何?What-If Tool 為開源 TensorBoard Web 應用程序的一項新功能,讓用戶在不需要編寫代碼的情況下分析機器學習模型。
另外,Facebook 在 5 月的年度開發者大會上宣布了檢測偏見的工具—Fairness Flow,如果一個演算法根據用戶的種族、性別或年齡做出不公平的判斷,它會自動發出警告。此外,根據《麻省理工科技評論》先前的報導指出,微軟也正在研究偵測偏見的自動化工具,終極目標是要做到自動檢測機器學習中的不公平性,幫助使用人工智慧的企業不會無意中歧視某些人。
世界經濟論壇(World Economic Forum)人工智慧和機器學習負責人 Kay Firth-Butterfield 日前就提出警告:「現在的焦點是關於人工智慧的道德問題,因為一些演算法存在『明顯的問題』」,解決問題的方法是讓西方的科技產業「更加多樣化」。
※英偉達推出最快的GPU產品Tesla T4,語言推理速度較上代快3.6倍
※特斯拉開啟「狂暴」模式!5000輛Model3達成,但這是否曇花一現?
TAG:DeepTech深科技 |