說一套做一套!華裔員工戳破谷歌的虛偽假面,亞裔女性根本沒機會
Google作為矽谷高科技產業的巔峰,許多人都夢想能夠參與其中,但曾任Google的女性工作者Qichen Zhang表示:「在裡面我看不到任何機會。」
谷歌歡樂表面之下,工作環境其實對於女性及非白人並不友善。
根據英國衛報報導,曾任Google的亞裔女性Qichen Zhang指出,其內部工作環境對於性別及非白人工作者並不友善,工作時也時常需要經歷漠視、冷澹等態度,並提出曾有過在會議中成為唯一女性的情況,但在場男性卻沒有讓她參與討論。
「身為一個亞裔女性,想必很輕鬆地就能夠進入Google吧,尤其是他們總認為亞洲人精通數學」Qichen Zhang提到在Google工作時,男同事對她開的"玩笑"。她認為雖然沒有明確爆出歧視性的言論或舉動,但並不代表他們沒有抱持歧視的態度。
Qichen Zhang曾對Google工作充滿憧憬,但進入Google之後卻只待一年就離職了,而除了Qichen Zhang以外,還有另一名黑人女性透露,Google所提倡的多元化事實上只是一種企業形象。
她表示除了每天需經歷冷待及忽視外,她也多次目睹上層以應徵者未符合企業文化要求來拒絕聘請,然而卻總是挑選出一個能夠融入白人圈的應徵者。
Google現任環球多元化主席Yolanda Mangolini對此表示公司已儘力改善來提供共融環境。
人工智慧性別歧視 谷歌有解釋
透過研究顯示,人類研發的機器也能學到人類看世界的觀點,無論是否有意。對閱讀文本的人工智慧來說,它可能會將「醫生」一詞與男性優先關聯,而非女性,或影像辨識也會更大機率將黑人錯誤分類為大猩猩。
2015 年,Google Photos 應用誤把兩名黑人標註為「大猩猩」,當時這錯誤意味著 Google 的機器學習還處於「路漫漫其修遠兮」的狀態。Google 立即對此道歉,並表示將調整演演算法,以修復該問題。近日,身為錯誤的責任方,Google 正在嘗試讓大眾了解 AI 如何不經意間永久學到創造它們的人持有的偏見;一方面,這是 Google 對外 PR(公關)的好方式,其次,AI 工程師也可用一種簡單的方法來簡介自己的偏見演演算法。
在影片中,Google 介紹了 3 種偏見:
互動偏差:用戶可透過我們與其互動的方式來偏移演演算法。例如,Google 召集一些參與者,讓他們每人畫一隻鞋,但多半用戶會選擇畫男鞋,故以這些資料為基礎的系統可能不會知道高跟鞋也是鞋子。
潛在偏差:該演演算法會將想法和性別、種族、收入等不正確地聯繫。例如,當用戶在 Google Search 搜尋「醫生」時,出現的大多為白人男性。
之前 Quarts 發了一則相關新聞,該報導稱,經普林斯頓大學最新研究成果,這些偏見,如將醫生與男性相關聯,將護士與女性關聯,都來自演演算法被教授的語言影響。正如一些資料科學家所說:沒有好的資料,演演算法也做不出好決策。
選擇偏差:據了解,用於訓練演演算法的資料量已大大超過全球人口,如果訓練影像辨識的資料僅針對白人進行,那麼得到的資料也只能來自 AI 有限的認定。
去年 6 月,「青年實驗室」(輝達、微軟等科技巨擘均是該實驗室的合作夥伴和支援者)舉辦了一次 Beauty.ai 網路選美大賽。比賽透過人工智慧分析,徵集了 60 萬條紀錄。演演算法參考皺紋、臉部比例、皮膚疙瘩和瑕疵的數量、種族和預測的年齡等因素。最後結果顯示,種族因素比預期發揮更大的作用:在 44 名獲獎者中,其中有 36 人為白人。
事實上,關於演演算法中含有性別、種族偏見的研究和報導,早已有之。據之前報導,要消除這些偏見,並不容易。
來源:紐約僑報
點擊展開全文
※歧視!81歲老婦因為是華人被推下月台
※川普政策未達標,美國8月僅新增15.6萬就業崗位
※買車容易用車難,舊金山人停車難又登榜了
※川普再出綠卡新政!赴美拒簽又遣返到底有多嚴重?這家航空公司無意間泄露真情
※美國校園欺凌頻發,近半數美國家長很擔憂
TAG:舊金山灣區華人資訊 |