自動駕駛火爆,汽車Tier one供應商開始研究深度神經網路
汽車零件供應商偉世通(Visteon)在今年的CES上推出旗下首款自動駕駛技術平台——DriveCore,並連手專註於自動駕駛感知技術的新創公司DeepScale,為自動駕駛領域再添新的合作模式。
DriveCore平台完整地配備了硬體、中介固件和架構,為Level 3及以上的自動駕駛車開發機器學習演算法。除此之外,DriveCore平台還為OEM提供可擴展的集中式域控制器,以滿足汽車製造商對於運算性能的需求。
Visteon表示,相較於「以視覺優先」的英特爾(Intel)/Mobileye平台,DriveCore更具有靈活性,可為來自攝影機、光達和雷達的感測器數據加以整合。
DriveCore平台:號稱首款可讓汽車製造商在開放合作模式中打造自動駕駛解決方案的平台 (來源:Visteon)
此外,Visteon還打造了一個基於PC的開發環境——Studio。它是為了讓第三方開發人員自行打造機器學習演算法而設計的。不過,要說Visteon的自動駕駛解決方案和競爭對手最大的不同,主要還在於其與加州新創公司DeepScale建立了合作夥伴關係。
DeepScale研發出一種深度學習感知技術,可用於處理原始數據(而非對象數據),以及加速嵌入式處理器的感測器融合速度。
由於自動駕駛車的開發還處在早期階段,因此類似Waymo、Uber和英特爾/Mobileye等科技公司都選擇跳過與中間商(即Tier one供應商)的聯繫,徑自開發完整的自動駕駛平台。然而,Visteon的動作頻頻,意味著被冷落的一級(Tier one)供應商要開始絕地大反攻了。
混搭感測器
VSI Labs創辦人兼首席顧問Phil Magney解釋:「這就是我一直在等待的。我知道Visteon一直在尋找擅長深度學習的合作夥伴。」
在Magney看來,其實Visteon的腳步已經有些晚了,其他Tier one供應商都已經找好了自動駕駛車解決方案的合作夥伴。不過,由於推出了DriveCore,Visteon如今有了完整的解決方案,能讓汽車OEM根據自己開發的應用需要混搭感測器。
Magney 補充道:「這套解決方案的核心是DeepScale,該公司已經提出了完整的軟體組件以及基於卷積神經網路(CNN)的演算法。」
DeepScale首席執行官兼創辦人Forrest Iandola並不願評論兩家公司合作帶來的商業價值。不過,他明確表示該公司與Visteon的合作關係穩定。「我們已經與Visteon進行了深入對話,並計劃共同將兩家公司的產品藍圖進行了整合、測試與部署。」
DeepScale不但為此合作關係貢獻出獨特的人工智慧(AI)演算法,還奉上專為小型處理器打造的感測器融合與深度神經網路(DNN)擴展能力。根據DeepScale指出,AI 軟體能利用任何感測器組合建構3D視覺環境模型,從單一相機產生解析度點雲——一般來說,實現這樣的效果通常需要昂貴的 光達(LiDAR)。據悉,DeepScale十分擅長這種僅以較小運算能力產生先進性能的微型DNN技術。
Magney稱Visteon/DeepScale連手是「天作之合」。如果沒有Visteon這樣的供應商來解決汽車廠商的需求,DeepScale恐怕很難將自家解決方案推向市場。而有了DeepScale,Visteon則得到了一家強大深度學習軟體合作夥伴的支持。DeepScale提供了預訓線軟體演算法,能因應從Level 2到Level 4和Level 5等級的所有自動駕駛任務需要。DeepScale提供可擴展解決方案的能力也使該公司引以為傲。
而在談到代表自動駕駛領域兩大發展路徑——英特爾/Mobileye 的漸進式以及Waymo、Uber的叫車/車隊模式時,Iandola 對《EE Times》表示:「我們分別接觸了兩大營的代表:一種是要從駕駛輔助逐步演進至全自動駕駛,另一種則是直接發展全自動駕駛。」他強調,「我們專註於開發感知系統,它可從成本與功耗有限的量產硬體擴展至駕駛輔助,以及有助於實現全自動駕駛的特定硬體。」
硬體選擇
Visteon發布的自動駕駛平台,也讓我們得以一窺自動駕駛產業的進化歷程。
首先,開放系統對於一些自動駕駛公司的誘惑力越來越大。Magney指出:「Visteon的自動駕駛堆棧能夠同時支持英偉達(Nvidia)、恩智浦(NXP)和高通(Qualcomm)的處理器架構,實在是讓人佩服。」簡單來說,Visteon期望藉由DriveCore平台為汽車OEM提供更豐富的選擇,不論是處理器還是感測器。
其次,汽車製造商也想在其自動駕駛車上採用多種感測器技術。Iandola 表示:「我們認為每一種感測器都有其獨特的優勢,而且在實際執行時是可以互補的。所謂的『萬用感測器』根本沒有意義,畢竟各家廠商的目標是讓自動駕駛系統變得安全可靠。「
他強調稱,「近些年來業界已經在新的感測器技術上投入超過 10 億美元了,專註於該技術的新創公司更多達30家以上。此外,新的AI處理晶元和平台也拿到了數十億美元的投資。」
Iandola還表示,DeepScale看到了「一個非常好的機會,使其打造出輕鬆整合業界最佳感測器技術與處理器平台的感知系統。」
原始資料 vs. 對象數據
第三,業界直持續爭論以原始數據還是對象數據實現感測器融合的話題可能要轉向了。
Magney表示:「現在的趨勢更傾向於在感知端採用原始數據進行融合,而這正是DeepScale援的方向。」當然,這場爭論至今還沒有最終結論。
以Uber而言,他們的自動駕駛車似乎就兩種數據都需要。據悉,Uber在使用一些神經網路來協助感知(需要將感測器數據轉換成對象數據),想完成這一任務有時候就得靠「融合」多個感測器。當然,在後期階段,Uber也會用其他神經網路來預測車輛的下一步動作。
DeepScale的解決方案:深度神經網路感測器融合(來源:DeepScale)
Iandola顯然很清楚到底需要做什麼。他曾經在之前的一次採訪中表示,「目前的深度神經網路研究有很大一部份都是根據現有的DNN技術進行修改和升級。」不過,到了連手DeepScale之後,他卻改口稱「我們一切都是從頭做起,使用原始數據開發自家的深度神經網路,而且這些數據不止是來自影像感測器,我們也參考了雷達和 光達。」
Magney稱DeeoScale的方法非常有現代感,是「將AI運用在自動駕駛領域的最新思維」。DeepScale如今也正倡導接近感測器的早期原始資料融合。
除此之外,Magney還看到了DeepScale解決方案的另一個固有優勢。「你可以用任何感測器組合完成數據融合。低層級的用攝影機和雷達,至於較高的層級則可用光達。」Magney 總結道:「有了DeepScale相助,我相信Visteon有能力提供從ADAS到Level 4/Level 5層級的多種解決方案。」
本文授權編譯自EE Times,版權所有,謝絕轉載
TAG:EET電子工程專輯 |