當前位置:
首頁 > 科技 > Google推出機器學習公平性測量工具以評估模型偏見

Google推出機器學習公平性測量工具以評估模型偏見

Google發布了Fairness Indicators工具,可針對二元和多類別分類(Classification)進行運算與可視化,幫助機器學習開發團隊,評估與修正模型所存在的偏差。

產業界與學術界大量地使用機器學習技術解決問題,但是機器學習演算法和數據集,可能同時反映且強化了偏差。Google提到,偏差有可能出現在機器學習工作管線的任何部分,從數據集到模型的表示,甚至是將結果呈現給最終用戶的方式都不例外。

而為了檢測機器學習存在的偏差,針對單一用戶或是用戶群的評估非常重要,Google強調,因為總體指標可以掩蓋某些群組不良的狀況,這些群組包括敏感的特徵群體,像是種族、性別、國籍、收入、性傾向、能力和宗教信仰。

Google的人工智慧原則其中一項,是要避免造成或是加強不公平的偏見,他們也持續在這領域耕耘,現在並於TensorFlow World大會發布了Fairness Indicators工具。Fairness Indicators可運算並可視化像是誤報率等常用的分類模型公平性指標,還能計算信賴區間,以多個閾值進行評估。在用戶介面上,用戶可以切換基準群組並調查不同指標的性能,也可為自己的使用案例,增加自定義的可視化指標。

Fairness Indicators可以用來產生透明性報告指標,以幫助開發人員更負責地調校模型,Google表示,公平性的顧慮與評估會因為案例而不同,因此Fairness Indicators工具還包含了一個互動式研究案例,提供Jigsaw毒性數據產生的意外偏差,說明使用Fairness Indicators檢測和修補機器學習模型偏差的方法。

Google提到,光靠指標與測量並無法讓機器學習模型實現完全的公平,這些方法僅是識別與解決偏差的其中一環。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!


請您繼續閱讀更多來自 十輪網 的精彩文章:

以Rust開發的Redox OS將達自我託管里程碑
蘋果最新收購的公司專精於銳利化照片