Facebook 內容審核高管:杜絕不良內容,目前要靠人力而不是機器
編者按:《大西洋月刊》的作者Alexis C. Madrigal同內容審核專家及Facebook的高管會談,該高管罕見地審視了Facebook的政策相關工作。本文原題Inside Facebook"s Fast-Growing Content-Moderation Effort,2月7日發表於《大西洋月刊》網站。
Monika Bickert為人嚴肅,令人印象深刻。她擁有哈佛大學的法律學位,在成為Facebook全球政策的負責人之前,出任助理檢察官一職,主要負責處理腐敗的政府官員。
在2月2日聖克拉拉大學法學院的一次會議中,Bickert特地對Facebook的內容管理團隊做了詳細的介紹。該會議是由學校的高科技法協會的負責人Eric Goldman組織的。
Bickert強調了內容審查對人類的必要性。她說,Facebook目前在全球擁有7500個內容審查員,實現了馬克·扎克伯格在2017年5月定下的目標,那時候公司只有4500名內容審查員。換句話說,他們的審查員數目在過去八個月里幾乎增加了一倍,大約等於Twitter或Snapchat的員工總數。
而且那些人還大都不是矽谷出身的。
「僱傭內容審查員的基本考量是語言,而且他們也具備某種特定的專業知識。他們被僱傭進公司後先是熟悉相關政策,然後慢慢才學習某一領域的專業知識」,她說,「審查小組的結構是這樣的,我們可以提供全球7天24小時的全覆蓋。這意味著我們會在都柏林僱傭一位緬甸人,或者想出其他的人員和語言配備,這樣就可以在24小時內對內容進行審查或回復。這就是我們的目標,但並不總是成功。」
內容審查、社交媒體的政治化
隨著社交媒體成為文化和政治的戰場,內容審查已經成為Facebook一個最為緊迫的話題。聖克拉拉會議於去年年底在加州大學洛杉磯分校舉行,會議的重點是處理「人類基本的粗魯行為」。互聯網公司已經代替了傳統意義上政府的角色,開始對公眾在虛擬空間內發表的言論進行管理,儘管他們都很難做到公平。除了Facebook之外,Google、Pinterest、Reddit、Yelp以及其他許多公司的代表也在會上發表了講話。
為了讓人們有一個直觀的了解,Google的Nora Puckett說,該公司的整個安全團隊有1萬人,但其中包括的人遠遠不止內容審查者。另一方面,Pinterest的Adelin Cai則表示,針對其2億用戶的內容審查團隊僅有11名全職人員。
在Facebook,有60個人專門為公司的內容審查制定政策。這些政策不是你在Facebook的服務條款或社區標準中讀到的。這是一套專門為內容審查員制定的深層次的、非常具體的操作指令,每兩個星期由Bickert的團隊進行審核和評價,並在內部會議上公布。例如在《衛報》中曾曝光的一項規定指出,雖然Facebook上發裸體照片一般都是「禁止的」,但在歷史大屠殺照片的背景下顯示成人裸體卻不在此列。
「每周我們都會更新這些政策,不過有時只是微調而已。」Bickert說。
而在每兩周的內容評審會議上,公司上下的不同團隊——包括工程、法律、內容審查人員、外部合作夥伴如非營利組織——都向Bickert 的團隊提供政策建議,Bickert稱之為「迷你立法會議」。
她的同事Neil Potts後來也發表了講話,同樣強調了Facebook和政府之間的相似之處。他說:「我們確實在某些方面與政府有共同的目標。如果政府的目標是保護他們的選民,也就是我們的用戶和社區,那我認為我們應該助其一臂之力。」
對於內容審查的標準規定的如此詳細的原因是,Facebook希望減少內容審查員所做決定的偏差。
「我們試圖確保標準足夠細緻,這樣就不會給審查人員留下太多的解釋空間」,Bickert表示,「我們知道人們可能會持有異見。審查人員對裸露的水平或者暴力的程度也有自己不同的看法。或者是不是應該確定一些禁忌辭彙?構成種族歧視有什麼標準?我們有非常具體的指導,所以審查人員不管是在菲律賓,還是在印度或者德州,他們都會做出同樣的決定。」
為了達到這樣的目標,公司對所有審查員的工作也進行了持續的審核,已確定「如果這個人是不是我們需要的,或者這個人的審查決定是不是達到了我們政策的要求。」
但過於具體也可能成為這些規則的弱點。「我們總會碰到這種情況——你看到一個什麼東西的時候,從技術上來說其實不構成違背仇恨言論的標準,但是當你看到它的時候,其實你會不由自主地確定這其實就是在煽點仇恨和矛盾,製造對立與衝突」,Bickert表示,「所以這些東西其實打了擦邊球,所以我們必須要細化這些標準,這樣才能更好地控制偏見。」
技術、人工智慧和審查
Bickert在演講中揭露的一則軼事似乎表明,Facebook並不總是像現在這樣認真對待內容審查。當Facebook推出直播時,他們必須通過技術工具查看有沒有哪一部分具有傾向性。所以,如果一個Facebook Live視頻長達兩個小時,評論者就不得不試著弄清楚有哪些令人反感的內容。
「內容審查員審查視頻的工具最終被證明它不是我們所需要的」,Bickert表示,「它沒有在審查視頻方面給予審查員足夠的靈活性。」
審查的引入反映了時代風向的轉變,扎克伯格已經不是2015年的扎克伯格了,那時的他是一個純粹的工程師,而非社區建設者。
在過去一年半的時間裡,Facebook似乎確實在內容審查方面傾注良多,儘管該公司有能力克服競爭和平台轉變等問題,但內容審查仍舊是一塊燙手山芋。這類問題並不像技術方面的挑戰那樣通過投入大量的工程師就可以解決。
「我們經常被人問說:人工智慧什麼時候才能拯救我們所有人?」Bickert說,「但我們還有很長的路要走。」
當前的機器學習技術不善於考慮特定的職位、用戶或社區組織的背景。因為這不是這些工具的工作原理,所以儘管我們看到其他領域的發展突飛猛進,但這一領域的發展還任重道遠。
「有些領域的技術工具正在幫助我們完成審查工作」,Bickert說。「但對絕大多數人,當我們看到仇恨言論,或者恃強凌弱,或者惡意騷擾的時候,要知道還有人也在看著它,這個人試圖弄明白線下世界發生了什麼,以及它在網路上是如何表現出來的。」
編譯組出品。編輯:郝鵬程
※如何像Ray Dalio一樣做決策?
※三星量產礦機專用晶元,由中國設備供應商採購和分銷
TAG:36氪 |