「對不起,我是用AI做的警察」
最近幾個月,軍用AI和主動攻擊型武器的問題鬧得沸沸揚揚,很多AI研究者聯名反對這項技術的軍事化。
但令人無奈的是,AI的很多特徵確實能夠與極端情況和複雜環境相結合,類似技術很難在民用市場找到落腳點,軍用AI也就順理成章作為了技術加持的方向。但是換個角度想想,如果軍用AI容易引發普遍恐慌,那麼切換到警用會不會好很多?
用AI來加持公共安全,提升警方的工作效率,似乎是個不錯的主意?
當然,我們距離經典的《機器戰警》還有很長的路要走。但在我們平時很少關心的警用技術世界裡,AI從未缺席。甚至很多非常前沿,有點科幻味道的技術已經投身到了實戰中。
就像眾多AI應用領域一樣,在AI+公共安全的旅程上,爭議和焦慮感也是必不可少的話題。今天讓我們來盤點一下警用AI的發展方向、層次和背後引起的爭論。
在很多警匪片中,我們經常會分不清卧底和警察。說不定未來某一天,我們會分不清執法的是真人警察還是AI警察。想想也是怪有意思的。
工利其器:從警具開始的AI進化
羅馬不是一天建成的,AI警察也不可能馬上取代人類。
在現實里,AI的首要任務是升級警察叔叔手裡的警具,讓他們不用那麼辛苦…
美國電影中,警察用發射帶電飛鏢的泰瑟槍制服嫌犯(有時候是主角)的畫面可謂深入人心。而泰瑟槍的製造商Axon如今已經開始了全面的AI化轉型。
比如他們就把AI技術用到了執法記錄儀中。
已經被美國多地警方裝配的AI執法記錄儀,可以通過攝像頭背後的演算法識別和分類功能,來對執法信息進行全自動編輯和存檔。這個功能原理等同於我們手機中的圖片識別,但要建立在海量資料庫和針對警用信息的強化機器學習基礎上。有了這個能力,執法警員就不必再對拍攝的資料進行大量剪輯、歸檔,從而節省下工作時間。
依靠警用設備起家的Axon,如今已經將企業目標全面設定為AI化。他們希望通過AI帶來的識別、判斷和主動分析能力,來取代警察所有的文書和資料編輯工作。
假如你覺得只是取代文書工作不太給力,那當然還有更強悍的。比如用AI來配合審訊。
日立和麻省理工合作推出過一個AI攝像頭解決方案,可以精準識別出被拍攝人的心跳、脈搏等數據。這項技術的一個應用場景就在在審訊時監控嫌疑人的生理狀況和面色變化等,並得出嫌疑人可能說謊或者精神高度緊張等結論。
這項技術的價值在於它並沒有收集太多嫌疑人資料,而是將一個審訊員察言觀色的能力集成到了AI上,為審訊提供輔助。當然了,目前這類技術才剛剛開始。
還有一個很大的市場,叫做警車。
就在不久之前,美國媒體披露福特申請了一項新的自動駕駛警車專利。
根據相關信息,福特的新警車不僅能夠自動駕駛,還可以通過車載攝像頭和感測器去發現街上其他車輛的違規信息,同時它還能連接到公共攝像頭等設備,組成立體化的車輛自動執法體系。
根據專利信息,這種自動警車可以在不用人類介入的情況下自己開出罰單,甚至還能根據事態來主動追蹤甚至跟蹤嫌疑車輛。
你的違章罰單竟然是一輛車給開出來的,這聽起來夠神的吧?然而福特只是自動駕駛警車眾多玩家中的一個而已,隨著自動駕駛產業的深入,更高應用度的警用車市場恐怕是兵家必爭之地。
我是城市的眼睛和耳朵:攝像頭背後的超級AI警察
以上說的那些AI,放在警匪片里顯然都是配角。但是演主角的心是每個人都有的,AI大概也不例外。
如果AI能夠為我們做一些人類警察做不到的事情,那麼它們當然也就順勢上位了。比如說,同時看完城市中無數個攝像頭的拍攝數據。在城市攝像頭網路與公眾安全這幕大戲中,AI已經準備作為一名「超級警察」粉墨登場。
城市攝像頭背後的AI,第一個任務當然是從人海中找出逃犯。記得當年抓周克華的時候,警方出動了大量警員日夜不停的看監控,假如AI能夠快速完成這項工作,那當然一大善舉。
以今天人臉識別的完成度,近距離認出逃犯數據已經毫不困難。難點是要在城市攝像頭拍攝到的人山人海中精準識別出某個人臉數據。比如歐洲一個叫做Indect的攝像頭+人臉定位項目,就號稱能在足球場定位觀眾席里的嫌犯。用攝像頭+人臉識別抓捕逃犯的技術在中國也得到了飛速發展,很多機器視覺公司提供類似的演算法解決方案。
另一個攝像頭背後的AI安全應用,是預判人流密集度,從而實時示警引導人群疏散。我們這樣的人口大國,在人群密集時發生踩踏事故是重要的社會安全隱患。用AI識別人流擁擠程度是有效的解決方案。在今天中國很多一二線城市裡,城市攝像頭背後的AI預警裝置已經開始上崗工作。
與人流控制相似,車流控制也是城市安全AI的一個主攻方向。比如通過攝像頭判斷車禍發生從而第一時間報警,甚至通過車輛行駛軌跡異常來判斷酒駕和疲勞駕駛。這些都已經在今天部分中國城市中得到了應用。
比較好玩的是,負責城市安全的警用AI不僅能「看見」,還能「聽見」。
矽谷一個創業公司開發了名叫ShotSpotter的城市警用系統,它的能力是從通過城市裡的麥克風,藉助AI能力在複雜的城市聲音中識別出槍聲。一旦聽見槍響,系統就會自動向警方報警,並準確定位槍擊事發地。
當然了,能看能聽之外,還能想就最好了。別急,這個AI也能。2016年,富士通與日本電子通訊大學公布了一個合作項目,內容是通過城市攝像頭監控到犯罪事件之後,AI系統自動規划出警方案和警力調配計劃。其演算法包括就近警力分配原則、預判嫌犯逃跑路線,還能設計出封閉道路和設置路障的方案。目前這個系統在人口密集、地形複雜的東京,已經可以五分鐘內給出一個警力調配方案。
躲在攝像頭背後的AI警察,已經開始在全世界上班,注視著城市的一舉一動。假如你覺得這還是不夠厲害,那……預測犯罪了解一下?
《少數派報告》看過沒?大預測術已經在路上
不知道今天提《少數派報告》是不是一件暴露年齡的事…但一說到AI預測犯罪,還是會首先聯想起電影里的「先知」系統。
現實世界裡的預測犯罪系統沒那麼神,但它的前沿研究已經在某種程度上開始向著玄學蕩漾…
提起預測犯罪,就不能不提到警用科技界赫赫有名的PredPol公司。雖然IBM、摩托羅拉等企業都涉足預防犯罪系統這個市場,但2012年才建立的PredPol已經覆蓋了全美上百個地區的警局,在降低犯罪率上給出了很強勢的數據反饋。
PredPol的業務說起來沒那麼神秘。它的基本邏輯是根據過往犯罪率曲線,和不斷變化的犯罪事件時間、地點等數據,通過一個大數據分析演算法,來得出哪個街區犯罪事件高發、哪條街道搶劫事件較多、哪個時間段城市比較危險這樣的數據結論。從而指導警方調整巡邏路線和巡邏時間,把更多警力投入到犯罪率偏高的時間地點上去。
這事好像聽起來也沒什麼,任何警員肯定都知道重點巡邏這件事。但以前重點巡邏靠的是個人經驗,而且整個警隊難以統籌協調。PredPol在6年間擴大了幾十倍的使用率,已經在某種程度上說明了這種「犯罪預測」是有效的。
類似方案已經開始從美國拓展到其他國家。比如前幾天日本神奈川縣警方剛向財政部門申請研究經費,希望能為2020年東京奧運會建立一個預測性治安體系。結合大數據體系和AI分析能力來設定更嚴密的安全保護機制。
如果覺得已經投入使用的系統不夠神,那我們應該看看更前沿的研究。PredPol最早並不是一個警用科技創業項目,而是兩名科學家的研究成果。其中一個站在PredPol背後的男人,就是加州大學洛杉磯分校的傑夫·布蘭汀漢姆教授,他是今天「預測犯罪」領域的先驅和代表人物。
不久之前,傑夫·布蘭汀漢姆團隊在名為《Partially Generative Neural Networks for Gang Crime Classification》的論文中提出了這樣一種設想:用深度學習網路來識別幫派犯罪的特徵,從而將幫派分子從人群中識別出來。
事情到了這裡,大概有一點「科幻」的味道出來了。
在布蘭汀漢姆團隊的研究中,他們收集了洛杉磯警局2014年到2016年所有關於黑幫犯罪的數據,輸入到一個深度學習神經網路中,由演算法自動生成對於幫派犯罪的特徵理解和行為框架。很多案件中缺失的證據環節也將有AI來主動補完。經過長時間的訓練,AI開始掌握了一套對幫派犯罪和黑幫分子的獨特理解。回到現實中,當警方把新的嫌犯信息輸入進AI系統後,就可以由AI來判斷該人是不是參加了幫派組織和幫派犯罪。
布蘭汀漢姆團隊提出的城市時空犯罪預測模型
研究人員表示,這項研究的未來目標是在缺少很多數據的情況下,依舊能判斷嫌疑人是否參加了幫派……可以說是非常激進的技術了。
千萬不要以為這項技術僅僅是科學家搞著玩的,人家可是明確拿到美國國防部的資助,目標是以時空博弈論和機器學習技術打擊極端主義。在幫派犯罪預測之後,布蘭汀漢姆團隊還將在具體犯罪種類預測和實時預測犯罪上展開進一步探索。
顯然,不管你願不願意,AI預測犯罪的「大預言術」已經向現實逼近。而一路伴隨他的,是關於隱私、歧視和不靠譜的爭議。
要安全還是要隱私:警用AI的原罪博弈
去年,谷歌曾經髮長文指出,中國某高校用人臉數據來預測罪犯的研究十分不靠譜。原因是這項研究分析了犯罪分子資料庫,從而得出了「某種面部特徵的人更容易犯罪」,顯然是把兩種不相關的信息強行結合到了一起。
這場類似於「相面」的AI鬧劇告訴我們這樣一種可能:我們太想知道未來,也過分願意做數據歸因。很多看似神奇的結果,可能都是在這兩種有問題的心理下被強行得出的。
比如就有批評者指責上文提到的AI幫派犯罪預測。由於其數據來源完全是洛杉磯警察局提供的案件信息和警察得出的結論。那麼AI想要判斷準確,就必須建立在洛杉磯警察局所有判斷都正確的基礎上,而對於幫派犯罪來說,這顯然不可能。
數據關係之間的牽強,讓很多預測類的警用AI從一開始就備受質疑。而其深度學習過程中的黑箱性也是觀察家和民眾批評的焦點:研究者都不明白AI是怎麼預測犯罪的,居然就敢說我有問題?
更無奈的是,技術問題還僅僅是警用AI科技面臨的第一重困境而已。向上一層則會撞上非常難辦的歧視問題和隱私問題,在道德困境面前,技術會更加束手無策。
比如說前面說過的AI預測重點巡邏地區。這件事在日本還沒開始,就已經有媒體提出這很有可能加大警方對某幾個具體區域的巡邏強度,從而讓這個區域的居民和店鋪產生不滿。
在美國這種不滿早就洋溢出來了,2016年美國公民自由聯盟曾經聯合十幾個人權組織發表聲明,認為警方用AI作為巡邏,甚至審訊和逮捕的工具並不恰當。其背後隱藏著警察系統對某些社區甚至某些族裔居民嚴重的偏見。
也有媒體比較陰謀論地認為,加州很多城市的警方過度熱愛搞一下AI預測犯罪的技術,或許含有警方希望在缺少或者沒有證據的情況下實施執法的可能。
而關於隱私的爭論就更嚴重了,城市攝像頭追逃按說已經是比較「溫柔」的技術,但還是有很多聲音批評這些能夠高高在上認出街上每一個人的技術,其實是對居民隱私的破壞。「不被認出來」也是隱私權力之一,更何況數據如何應用居民也無法自主。
當警方手裡的識別工具越來越強力,犯罪分子的活動空間當然會越來越小,但普通居民感到的隱私壓抑感也會隨之上升。在AI識別能力爆炸式發展的今天,這可能會是一個無法圓滿解釋的矛盾。
在的警用AI科技領域,強調公眾安全還是強調居民隱私,優先考慮技術的妥善度還是應用效率,處在一場無止境的博弈里。
AI從來都是一把雙刃劍,這點在安全領域給人的感受尤其明顯。
※讓人工智慧坐上副駕駛:智能協作能為人類做到什麼?
※繞過安卓的唯一機會,可能是利用EMUI中沉睡的AI藏寶圖
TAG:腦極體 |