當前位置:
首頁 > 最新 > AI 視覺能達到怎樣的高度,取決於「前端成像」這塊最短的木板

AI 視覺能達到怎樣的高度,取決於「前端成像」這塊最短的木板

去年 12 月份,一段「BBC 記者挑戰中國天網行人識別系統 潛逃 7 分鐘後被抓獲」的視頻走紅於網路,在 Facebook 等國外網站上被大量轉載。

援引英國廣播公司(BBC)的報道,BBC 記者約翰·蘇德沃斯在我國貴陽,在被手機拍下一張面部照片後,約翰·蘇德沃斯開始了他的「潛逃」之路,但不到七分鐘,就被警方抓獲。

之所以警方能夠在極短的時間內就將約翰·蘇德沃斯抓獲,得益於我國的「天網工程」。資料顯示,通過路上為數眾多的攝像頭,「實時行人檢測識別系統」可以識別行人的年齡、性別、衣著等信息,最終來鎖定目標。

在這個過程中,除了引入人工智慧之後,為安防帶來了非常大的效率提升之外,作為前端成像的重要組成部分,攝像頭同樣不可忽略。

圖片來自視覺中國

根據相關數據顯示,人類獲取的信息 70%-80% 來自於視覺,在如今 AI 時代,從自動駕駛到智能手機,再到安防,AI 圖像視覺技術正在被應用到越來越多的行業。

但目前一個現實的情況是,受深度學習驅動,雲端視覺圖像處理技術飛速發展,前端視覺成像技術卻依舊裹足不前,無法與之相匹配,成為了嚴重的瓶頸。


每一次革命性技術的到來,都有著足以讓人為之「瘋狂」的理由。而想要把它從人類大腦的構想中帶到現實生活里,顯然並不是一件容易的事情。

對於自動駕駛,特斯拉一直以來走的比較激進,也非常靠前。但在這件事情上,它也「栽過一個很大的跟頭」。2016 年的時候,一輛特斯拉 MODEL S 在自動駕駛時發生車禍,導致駕駛員死亡,那也是自動駕駛技術應用以來第一起已知的導致死亡的車禍。

當時,美國高速公路安全管理局(NHTSA)在公告中表示:5 月 7 日,在佛羅里達州 Williston,特斯拉 MODEL S 司機在使用 Autopilot 模式時發生事故死亡。初步報告顯示,當時在一個十字路口,在這輛特斯拉汽車的前方,一輛重型卡車正在左轉。為此,NHTSA 將調查「事故發生時駕駛輔助功能的設計和性能」。

圖片來自視覺中國

在隨後特斯拉發布的調查報告中這樣寫道,「當時 MODEL S 行駛在一條雙向、有中央隔離帶的公路上,自動駕駛處於開啟模式,此時一輛拖挂車以與 MODEL S 垂直的方向穿越公路。在強烈的日照條件下,駕駛員和自動駕駛都未能注意到拖挂車的白色車身,因此未能及時啟動剎車系統。」

簡單來講,由於當時 MODEL S 是逆光行駛,強烈的光線條件加之大貨車白色車身造成反光,導致其所搭載的攝像頭無法正確識別前方物體,是這起事故發生的直接原因。

數碼時代,成像的品質標準是主觀的,往往大家關注的是照片本身的效果是不是符合我們的喜好。因此各家廠商在相機的調校上,也不盡相同。而 AI 時代要求的圖像品質標準是客觀的,即圖像是否可以應用。

舉例來講,在日常的拍攝過程中,拋開攝影棚等預設好的場景,在室外環境下,遇到到弱光、逆光、反光等等光線條件較差的情況,是在所難免的事情。此時傳統數碼成像的效果往往很難令人滿意(比如噪點過高)。

而 AI 時代要求的圖像品質標準是客觀的,即圖像是否可以應用。其對於前端成像設備所反饋回來的圖片信息,有著更高的要求,以便後端進行圖形處理時,能夠做出更加精準的判斷。

回過頭來看,如果當時 MODEL S 所配備的攝像頭能夠解決強光、反光的問題,之後的事故也就不會發生了。

當然,自動駕駛僅僅是其中一個領域,之於安防,也同樣如此。更高的成端成像素質,無疑將幫助安防系統更加準確的識別罪犯特徵,來進一步提升效率。


正如前邊我們講到的,在數碼成像技術發展的 30 余年裡,諸如如成本高、噪點多、逆光拍攝效果差等問題,始終沒有一個很好的解決方案。

同時,數碼成像所輸出的結果,僅僅是單一的圖像,你無法去控制它的圖像生成過程,這也在很大程度上限制了它的多場景應用需要。

隨著 AI 視覺時代的到來,除了同樣需要得到圖像信號之外,更重要的是需要能夠去獲取圖像生成過程的交互數據,繼而通過這些數據進行智能分析,來提升圖像品質,從而為後端處理提供更加準確的圖像信號。

成立於 2014 年的 eyemore,一家從事前端成像引擎的技術公司,就在做這樣的事情。

通過專業的成像引擎晶元,他們利用自主研發的成像演算法,為各個應用場景下的機器視覺公司提供前端成像的一體化解決方案,來解決目前 AI 視覺由於光線差導致識別準確度低以及從圖像演算法到視覺硬體產品落地周期太長的問題。

本質上,eyemore 所推出的成像引擎與傳統圖像處理器 ISP(Image Signal Processor)所承擔的角色是一致的。不同的地方在於,其在傳統 ISP 之外,加入了 AI 成像演算法以及 AI SDK。嚴格來說,它是面向 AI 軟體演算法工程師而設計的全新成像體系。

用更為形象化的描述,在整個 AI 視覺處理流程中,成像引擎所扮演的角色,恰恰是連接光學模組和後端 AI 演算法的中間節點,起到承接的作用。

經由它進行處理之後,輸入到後端演算法的信號將擁有更寬的動態範圍以及更低的噪點控制,從而來提升整個 AI 視覺的識別準確性。

綜合來講,eyemore 成像引擎的到來,不僅僅填補了國內人工智慧視覺領域的空白,使國內的視覺 AI 產業鏈更加完整。

從未來整個 AI 的發展來看,其更重要的意義在於,將為 AI 在對視覺成像有一定要求的領域實現落地,提供具有實際可操作意義的解決方案。

在即將到來的極客公園 IF 大會上(19-21 日),眼擎科技也將發布全球首款面向 AI 視覺應用的 eyemore 成像晶元,屆時眼擎科技朱繼志將會對這顆耗時四年,可以大幅提高 AI 視覺演算法識別率的晶元予以更為詳細的解讀,感興趣的朋友不妨關注下。

(頭圖來源:視覺中國)


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 極客公園 的精彩文章:

睜大眼睛,2018 年第一撥好玩兒的新品你最喜歡哪一個?

TAG:極客公園 |