當前位置:
首頁 > 知識 > 幫助降低自殺率的AI

幫助降低自殺率的AI

當家長和老師發現LGBTQ(女同性戀者Lesbian、男同性戀者Gay、雙性戀者Bisexual、跨性別者Transgender、酷兒Queer或對其性別認同感到疑惑的人Questioning)青少年陷入困境,並由於各種原因無法進行及時干預時,谷歌能幫上忙嗎?


預防自殺「守門人」的角色通常由社區成員組成。當發現有人有自殺傾向時,他們會提供幫助。這是一個鬆散的組織,通常包括教師、家長、教練和年長的同事,但當意識到有人要自殺時,他們都有某種權威和干預能力。


谷歌能擔任這樣的角色嗎?當用戶搜索與自殺方法相關的關鍵詞時,谷歌的結果突出顯示了全國自殺預防生命熱線的號碼。但這個系統並不是萬無一失的。谷歌不能編輯網頁,只能編輯搜索結果,這意味著互聯網用戶可以很容易地通過鏈接或論壇找到如何自殺的信息,根本就不需要搜索引擎。同時,一個機器可能無法理解自殺者是真誠的求救還是在開玩笑。而且,當人們用英語以外的語言搜索自殺時,谷歌人工智慧的反應低效得多。

五月,科技巨頭撥款150萬美元的Trevor項目是一家位於加州的非營利組織,通過電話(TrevorLifeline)、簡訊服務(TrevorText)和即時通訊平台(TrevorChat)為LGBTQ青少年提供危機諮詢。該項目的負責人希望通過機器學習來提高TrevorText和TrevorChat的自殺風險預測的準確性。Trevor的諮詢都是從一個簡單的問題開始的:「你怎麼啦?」


Trevor項目主任薩姆·多里森(SamDorison)說:「我們想要確保以一種中立的方式與他們談論自殺的話題」「讓他們來引導談話,看什麼對他們最有幫助。」


Trevor的平均等待時間不到5分鐘,有時甚至以秒計算。Trevor希望最終人工智慧能夠通過來電者對第一個問題的回答來識別高風險者,並立即將他們轉接給諮詢師。將使用兩個數據點對谷歌的人工智慧進行培訓:一是青少年與諮詢師的對話,二是諮詢師在與他們交談後完成的報告。其想法是,通過觀察初始反應與最終風險的比較,訓練人工智慧根據最早的反應來預測自殺風險。


演算法在識別看不見的模式方面有著巨大的潛力,但要成為一個好的「看門人」,關鍵在於干預,一旦發現問題,就挺身而出並介入其中。這就是Trevor項目的來龍去脈。最終,這個非盈利組織的領導者們想要用一個人工智慧系統來預測年輕人需要什麼資源:住房、出櫃幫助、治療,所有這些都是通過掃描聊天中最初的幾條信息來實現的。長期而言,他們希望進化AI,使其能夠看到聊天信息背後的東西。例如,如果人工智慧能夠從信息中判斷求助者閱讀或教育水平,它能否推斷這些構成因素對自殺風險的影響?遵循一個簡單的「if.than」語句拯救一個人的生命似乎不可能,但很快,它可以。

本文譯自 The Atlantic,由譯者 Mork 基於創作共用協議(BY-NC)發布。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 煎蛋 的精彩文章:

汽車打轉向燈時為什麼會發出咔噠聲?
以身作死:連吃一年過期食品

TAG:煎蛋 |