基於CNN的長期和大規模環境中的視覺位置識別
摘要:隨著攝像機在智能車輛中的普遍應用,視覺位置識別已經成為智能車輛定位中的一個主要問題。傳統的解決方案是使用手工製作的位置圖像進行視覺描述來匹配位置,但是這種描述方法對於極端的變異性卻效果不大,尤其是季節變換的時候。本文提出了一種基於卷積神經網路( CNN )的新方法,通過將圖像放入預先訓練的網路模型中自動獲取圖像描述符,並通過彙集、融合和二值化操作對其進行優化,然後根據位置序列的漢明距離給出位置識別的相似結果。在實驗部分,我們將我們的方法與一些最先進的演算法FABMAP,ABLE-M和SeqSLAM進行比較,以說明其優勢。實驗結果表明,基於CNN的方法在代表性的公共數據集上的性能優於其他方法。
作者:Jianliang Zhu, Yunfeng Ai, Bin Tian, Dongpu Cao and Sebastian Scherer
Ⅰ.介紹
在不斷變化的環境中長期導航[2]是當今機器人技術面臨的主要挑戰之一,因此視覺定位的主要問題之一是在長期和大規模環境中進行位置識別。然而,這是一項艱巨的挑戰,因為一些地方不得不應對在不同周、不同月和不同的季節,甚至是一天中不同時間的重大變化。這些條件變化是由外部環境引起的,如光照、天氣和季節。諸如快速外觀映射(FAB-MAP)[1]等方法已被證明可以映射大型、具有挑戰性的環境。最近,名為SeqSLAM [ 3 ]和ABLE - M [ 4 ]的演算法定義了匹配序列圖像的方法,以提高一些條件變化的魯棒性。這些位置識別技術依賴於手工製作的功能,例如SIFT或LDB [4],非常不適合處理劇烈的視覺變化,例如從白天到夜晚,從一個季節到另一個季節,或從晴朗天氣到雨。 圖1給出了不同季節的例子。
圖1.視覺位置識別系統必須能夠( a )成功地匹配同一位置的感知上非常不同的圖像,同時( b )也拒絕不同位置的相似圖像對之間的不正確匹配。
最近深度學習技術和卷積神經網路的發展為理解位置識別問題提供了另一種方法。AlexNet [ 5 ]顯示,從CNNs中提取的特徵經過充分有效的訓練,在分類任務上比手工製作的特徵獲得更好的結果。[ 7 ]提出了一個有效的深度學習框架來生成用於快速圖像檢索的二進位哈希代碼。考慮到位置識別[8]與圖像檢索相似,我們有理由期望利用基於CNN的特徵的力量來設計位置識別問題的解決方案。然而,在視覺定位中,除了對目標識別[9]的一些研究外,深度學習並沒有得到充分的應用。在本論文中,我們提出了一種簡單而有效的方法,利用改進的CNN模型提取圖像描述符,增強圖像序列的匹配以進行視覺位置識別。所提出的方法如圖2所示,並將在後面的章節中詳細介紹。我們的方法具有以下特點:
首先,我們提出了一個基於VGG16-Places365[10]改進的CNN架構。我們的模型適用於通過添加,刪除和融合圖層來提取圖像特徵的要求。
其次,我們將CNN層獲得的特徵轉換為二進位表示,從而降低計算複雜度。其中一個主要的好處是他們可以使用漢明距離匹配位置。
第三,我們提出了一種演算法,根據SeqSLAM和ABLE - m的一些思路,基於一系列圖像來計算匹配最佳候選位置。
論文的其餘部分如下所示。我們在第Ⅱ節中簡要回顧了位置識別演算法和CNN模型的相關工作;我們方法的細節將在第III節中介紹;第Ⅳ節給出了三個數據集的實驗結果,比較了所提出方法的性能;最後,我們在第V節中總結了本文,並討論了未來的工作。
II.相關工作
A.卷積神經網路(CNN)
卷積神經網路可以從訓練資料庫中學習圖像特徵。在過去的五年里,隨著CNNs在計算機視覺領域變得越來越重要,人們已經做出了許多嘗試來改進AlexNet [ 5 ]的原始架構,以獲得更高的準確性,比如VGG 11、GoogLeNet 6、ResNet 10等。考慮到位置識別與圖像檢索相似,而且它是獨立的,K. Lin等人[ 7 ]提出了一個有效的深度學習框架來生成用於快速圖像檢索的二進位哈希代碼。
場景識別是另一個與視覺位置識別非常相似的領域,儘管這是深度學習中的一項分類任務。位置[10]包含超過1000萬個包含365個獨特場景類別的圖像,是用於訓練場景識別CNN模型的數據集。基於Places數據集和最先進的CNNs,許多研究人員培訓了一些CNNs模型,並將其展示給其他研究人員使用。位置識別可以被看作是圖像相似性匹配的一項任務,一些研究人員通過預先訓練的CNNs模型來實現。從深度學習的進步中得到啟發,我們提出了一個問題,我們可以利用深度CNN來實現視覺位置識別嗎?
B.視覺位置識別
與其他感測器相比,視覺感測器具有價格低廉、體積小等優點,正成為當今最受歡迎的機器人感測器。循環閉包檢測的一種流行方法是基於快速外觀的映射(FAB-MAP)[1]。所提出的FAB-MAP使用單個關鍵點描述符,即尺度不變特徵變換(SIFT),以及用於界標描述的離線詞袋描述符(BoW)和用於預測循環閉包候選的貝葉斯過濾器。然而,FAB-MAP有一些不足之處,需要提前離線訓練,並且在環境變化劇烈的場景中具有較差的穩健性。
如今,視覺定位面臨的主要挑戰是在長期大規模環境中的位置識別。為了在長期環境中提高拓撲定位的效率,許多其他技術被提了出來。在這方面,一個成功的方法是SeqSLAM,它在相同的路線下被評估為具有挑戰性的條件。它引入了使用序列圖像而不是單個圖像來確定位置的思想,以改善長期方案的性能。
使用序列而不是單一圖像利用了移動相機獲取的視覺數據的時間一致性,從而減少了自我相似環境識別中的誤報數量,並提高了對局部場景變化的容忍度。這個思想被ABLE-M [4]演算法使用,它基本上減少了處理後的圖像,並將全局二進位描述符與漢明距離的快速計算進行了比較。
深度學習技術和卷積神經網路的最新發展為理解位置識別問題提供了一種替代方法。Z. Chen, 等人[8]結合CNNs提取的有效特徵,提出了一種基於Overfeat的視覺場所識別方法;X. Gao等人提出了一種新穎的方法,該方法採用改進的堆疊去噪自動編碼器(SDA)來解決視覺SLAM系統的閉環檢測問題;D. Bai等人[13]給出了一種融合AlexNet和SeqSLAM來檢測循環閉包的方法。最近的建議啟發了我們目前的工作,旨在提供一種基於改進和簡化的CNN特徵的更穩健和有效的位置識別演算法。
III.我們的方法
在這一部分,我們描述了我們提出的方法的主要特徵:CNN模型、提取圖像描述符和相似性匹配。圖2顯示出了所提出的框架。
A.CNN模型
在第Ⅱ節A部分中,我們討論了今年麻省理工學院計算機科學和人工智慧實驗室提出的Places數據集,實驗室現在正根據數據集舉辦2017年地方挑戰賽[15]。他們希望更多的研究人員使用他們的數據集來訓練CNN用於場景識別任務,並提供基於CNN模型的Places365-CNN,例如AlexNet,VGG,GoogLeNet,ResNet在他們的數據集上訓練。根據論文的實驗結果,我們選擇VGG16-Places365作為位置識別的基本模型,在多個數據集上具有最佳性能。
從LeNet-5 [16]開始,卷積神經網路通常具有標準的結構堆疊卷積層(可選地,隨後是批量歸一化和最大池化)之後是一個或多個完全連接的層。VGG 16 - Place 335與VGG具有相同的結構,它具有16個重量層,包括13個卷積層和3個完全連接的層。Places數據集包含超過1000萬個包含365個唯一場景類別的圖像,因此最後一個完全連接的圖層的尺寸應修改為365。這13個卷積層被劃分為5個部分,其中一個部分的每一層都有相同的數據維度。每個部分後面都有一個最大彙集層,該層通過2 x2像素窗口執行,跨距為2。卷積層的堆疊之後是三個完全連接的( FC )層:前兩個層各有4096個信道,第三個層執行365路位置分類,因此包含365個信道(每類一個)。除了這些層之外,最後一層是soft-max層,並且所有隱藏層都配備有整流(ReLU)非線性。表1給出了VGG16-Places365網路的權重層和池化層的輸出尺寸。
圖2.視覺位置識別方法的全局系統架構。(從Nordland數據集的兩個原因捕獲圖像,我們將序列定義為i和j。最後,圖片是相似度矩陣的可視化。)
通過深層架構,CNN能夠在不同的抽象層次上學習高級語義特性。有了深度架構,CNN能夠在不同抽象級別學習高級語義特徵。然而,圖像的空間信息通過完全連接的層丟失,這在視覺位置識別等應用中可能是不理想的。在[ 8 ] [ 13 ]的實驗結果表明,在卷積層產生的基於CNN的深層特徵,在環路閉合檢測中比全連接層特徵獲得更好的性能。根據這些,我們選擇VGG16-Places365的三個層"conv3_3","conv4_3"和"conv5_3"來提取我們任務的圖像特徵。此外,我們對CNN模型進行了大量修改,包括添加幾個池層和刪除完全連接的層,以減少特徵尺寸並節省圖像處理時間。然後,在將三層的特徵調整為一維後,我們使用連接[ 17 ]的操作來融合它們。我們做了很多實驗來調整增加的池化層的網路參數,您可以在第Ⅳ節中看到實驗細節。最終的模型結構如圖3所示。
B.用於位置識別的特徵描述符
視覺特徵是影響圖像匹配準確性的最重要因素之一。我們的方法使用從上面給出的CNN模型中提取的CNN特徵,而不是傳統手工製作的特徵來計算圖像之間的相似性。浮點是我們最終從模塊中獲取的CNN功能的類型。我們將該特徵命名為Fcnn,其尺寸為1×100352。降低圖像匹配的計算成本的實用方法是將特徵向量轉換為二進位代碼,這可以使用漢明距離快速比較。我們首先將其每個元素標準化為8位整數(0~255),然後得到整數特徵如(2)所示。然後,可以很容易地轉換為二進位特徵。
C.二值化的有效匹配
使用二進位描述符匹配漢明距離比使用L2範數匹配描述符更快更有效,並且在此用於計算圖像之間的距離。在很多研究中,我們注意到他們通過匹配單個圖像來計算兩幀的相似度。如果我們將兩個圖像的特徵描述符定義為和,我們可以計算它們的漢明距離HmDij來表示相似性。計算過程如(3)所示。
表一. VGG16 - Place335網路各層的輸出尺寸
圖3.基於vg16 - place 335的CNN模型用於視覺位置識別。(所有完全連接的層都被移除,三個名為pool 3 _ fuse、pool 4 _ fuse、pool 5 _ fuse的池層分別被添加到Conv 3 _ 3、Conv 4 _ 3和Conv 5 _ 3的背面。三個輪詢層的輸出被融合為最終的CNN特徵。)
IV.績效評估
在本節中,演示了一組離線實驗來評估我們方法的性能。我們的實現是一個基於Caffe [18]的python程序,它是一個開源的深度學習框架。我們首先介紹數據集和評估指標,然後與公共數據集上的幾種著名演算法的性能進行比較。
A.數據集和評估指標
用於實驗的第一個數據集是FAB-MAP最初使用的City Center [1]數據集。它是一個基本的數據集,廣泛應用於閉環檢測和位置識別研究實驗,因此我們使用它來調整和優化網路模型。然後我們使用Nordland[2]數據集進行了測試,這些數據集是使用單目攝像機在長期條件下記錄的。根據CNN模型的參數設置,我們將在每張圖像進入網路之前對其進行224×224的新尺寸預處理。最常用的位置識別演算法評估方法是繪製Precision-Recall(PR)曲線,該曲線提供了演算法性能的更多信息。其主要要素定義如下:精度定義為檢測總數的真正位置數;Recall被定義為真實地點的數量與地面真實地點的數量之比。(5)顯示了計算過程。我們通過掃描不同的距離閾值θ來獲得PR曲線,如(6)所示。
B.城市中心數據集中的結果
第一個數據集,城市中心[1],在康明斯和紐曼市中心附近的公共道路上收集。它包含1237對大小為640×480的圖像,由兩個攝像頭(左和右)在機器人上拍攝,機器人以每1.5米一個圖像的頻率穿過環境。這些圖像包括動態物體,此外,它是在有陽光的大風天收集的,這使得豐富的樹葉和陰影特徵不穩定,如圖4 ( b )和4 ( c )所示。提供了數據集GPS信息和地面實況。機器人繞一個環路行進兩次,總路徑長度為2 km,當機器人繞第二個環路運行時,我們可以在這些位置實現位置識別,標記為紅色曲線,如圖4(a)所示。
圖4.城市中心數據集。( ( a )是GPS信息的可視化,紅色曲線是機器人運行的第二個環,我們應該在這些位置進行位置識別。( b )和( c )是該數據集的兩對代表性圖片。)
由於網路的輸入只能是一個圖像,我們只將左攝像頭的圖像作為我們的測試集。我們還在機器人退出循環後修改了一些地面實況值,因為當雙目機器人在相同位置向後移動時,一個攝像機的圖像完全不同。在這種情況下,不可能實現位置識別。
首先,我們在VGG16-Places365的每一層上做一些實驗,PR曲線如圖5(a)所示。如預期的,結果證明提取卷積特徵獲得了最佳效果,並且每一層的性能都優於FABMAP演算法的開放工具箱open FABMAP [ 20 ]。圖5的其他部分分別給出了添加的彙集層的實驗結果,「pool3_fuse」,「pool4_fuse」和「pool5_fuse」。通過調整這些層的類型,MAX或AVE,以及濾波器的尺寸,2×2、4×4、7×7、8×8或14×14,我們在綜合考慮實時性和準確性的情況下獲得了每一層的最佳參數設置。當特徵維數小於某個值時,演算法的效果急劇惡化,當濾波器的大小變大時,最大濾波器優於平均濾波器。pool5_fuse圖層使用大小為2×2的平均過濾器,pool3_fuse圖層和pool4_fuse圖層都使用大小為4×4的最大過濾器。此外,我們給出了通過這些設置的多層特徵融合方法獲得的實驗結果,它們也在圖5中示出。很容易看出融合方法比單層獲得了更好的結果,我們認為原因是多層的特徵融合包含更多的空間信息。我們將此作為最終的CNN模型,如最後的第3接A部分所述。
C.Nordland數據集的結果
Nordland 數據集 [ 2 ]記錄了挪威北部728公里的火車旅程,在四個不同的季節,火車前方的同一視角。因此,數據集可以被認為包含一個循環,並遍歷四次。如圖6所示,風景已經發生了巨大的變化,從冬天的積雪覆蓋到春天和夏天的新鮮植被和綠色植被,再到秋天的彩色樹葉。大多數旅程都是通過自然風光,但火車也經過市區,偶爾停留在火車站或信號站。這可能是目前用於長期視覺位置識別評估的最長和最具挑戰性的數據集。在處理之後,數據被確定為25fps並且大小為1920×1080,並且圖像序列被同步,即,在相同時間點數據處的每個序列表示相同的位置。
圖5.城市中心數據集的實驗結果。(關於VGG16-Places365的不同層的曲線顯示在(a)中。(b),(c),(d)顯示了添加的具有不同設置的池層的結果)
在我們的方法中,我們關注匹配圖像序列的問題,而不是識別位置的單一圖像。在Nordland數據集中,我們首先通過比較春季和秋季之間的序列來進行不同長度圖像序列的實驗。該方法可以在長期和大規模的視覺位置識別中獲得更好的結果,如圖7所示。注意圖片中的PR曲線,我們可以發現,隨著Slength的增加,演算法的效果越來越好,這證明了我們想法的正確性。但是當Slength大於200時,演算法的效果開始受到限制。我們分析當Slength足夠長以包含一些無法匹配的特定位置時會發生這種情況,可以將其視為雜訊。考慮到準確性和複雜性,25 fps數據的最佳序列長度配置為200。因此,我們在其他實驗中使用Slength= 200。然後,我們將我們的方法的性能與主要的最新工作進行比較,包括FAB-MAP,SeqSLAM和ABLE-M演算法。由於OpenFABMAP [20],OpenSeqSLAM [2]和OpenABLE [21]的作者開發的源代碼,實現了評估。如果我們不指定任何參數,我們將使用開源代碼中的默認設置。
圖6.每個季節的Nordland 數據集的示例圖像。
圖7.不同S
length的PR曲線。
圖8. Nordland數據集的實驗結果。
現在,我們處理了六種組合的結果,春天對比夏天,春天對比秋天,春天對比冬天,夏天對比秋天,夏天對比冬天,秋天對比冬天,對應的序列。這些評估由圖8中所示的PR曲線描述,其中我們可以觀察到不同季節對位置識別性能的影響。值得注意的是,沒有匹配圖像序列的OpenFABMAP已經取得了比其他方法更差的結果。除了位置識別,準確率為100 %的Recall也是一個很好的性能指標。以100%的精度,我們的方法比其他方法實現了更好的Recall。應該注意到,受開始時序列的影響並不完整,基於序列的方法實現100%Recall是一個限制。在相同條件下,冬季實驗表現較差,因為積雪增加了識別難度。
D.討論
從以上三部分的實驗中,我們可以看到,與傳統的使用手工特徵描述圖像的方法相比,我們基於CNN的方法在位置識別任務中具有很大的優勢。我們給出如下原因:
(1)通過CNN對大量數據進行學習的圖像描述符可以更準確地描述圖像之間的差異,
(2)通過融合三個最佳CNN層保留更多圖像空間信息的特徵,
(3)基於圖像序列的識別消除了雜訊場所的影響。
此外,在上述實驗中,我們的方法在某些地方沒有取得好的識別結果。例如,在連續多幀圖像中,大部分區域被移動的物體覆蓋,或者被天空和地面積雪佔據。目前,所有識別演算法的性能都很差,這是長期和大規模環境下視覺位置識別最難解決的問題。
V.結論
在這項工作中,我們提出了一個簡單有效的基於VGG的CNN框架來提取用於位置識別的圖像描述符。我們在卷積層「conv3_3」,「conv4_3」和「conv5_3」後面添加了三個具有合適濾波器的池化層,並將它們的輸出融合為描述符組合二值化。此外,用於描述地點的最終二進位字元串是從圖像序列而不是單個圖像中提取的,並且通過漢明距離進行匹配以進行識別。本文的想法來自我們之前關於大規模交通場景的工作[19]。我們的方法已經證明,它可以通過與其他最先進的方法(如FABMAP,ABLE-M或SeqSLAM)在季節、環境或視點發生極端變化的具有代表性的公共數據集上進行比較,成功地實現長期和大規模的視覺位置識別。
致謝
我們非常感謝NVIDIA公司的支持,捐贈了用於本研究的Titan Xp GPU。
REFERENCES
[1] M. Cummins and P. Newman, 「FAB-MAP:Probabilistic localization and mapping in the space of appearance,」International Journal of Robotics Research (IJRR), vol. 27(6), pp. 647-665,Jun. 2008.
[2] N Sünderhauf, P. Neubert, and P.Protzel, 「Are we there yet? Challenging SeqSLAM on a 3000 km journey across allfour seasons,」in Workshop on Long-Term Autonomy at the IEEE International Conferenceon Robotics and Automation (W-ICRA), Karlsruhe, 2013.
[3] M. Milford and G. F. Wyeth, 「SeqSLAM:Visual route-based navigation for sunny summer days and stormy winter nights,」in IEEE International Conference on Robotics and Automation (ICRA), St. Paul, 2012,pp. 1643-1649.
[4] R. Arroyo, P. F. Alcantarilla, L. M. Bergasa,and E. Romera, 「Towards life-long visual localization using an efficientmatching of binary sequences from images,」 in IEEE International Conference onRobotics and Automation (ICRA), Seattle, 2015, pp. 6328-6335.
[5] A. Krizhevsky, I. Sutskever, and G. Hinton,「Imagenet classification with deep convolutional neural networks,」 In the 25thInternational Conference on Neural Information Processing Systems, Lake Tahoe ,2012, pp.1097-1105.
[6] C. Szegedy, W. Liu, Y. Jia, P. Sermanet,S. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, and A. Rabinovich. 「Going deeperwith convolutions,」 In IEEE Conference on Computer Vision and Pattern Recognition,Boston, 2015, pp. 1-9.
[7] K. Lin, H. Yang, J. Hsiao, and C. Chen,「Deep learning of binary hash codes for fast image retrieval,」 In IEEEConference on Computer Vision and Pattern Recognition Workshops, Boston, 2015,pp. 27-35.
[8] Z. Chen, O. Lam, A. Jacobson, and M.Milford, 「Convolutional neural network-based place recognition,」 arXiv:1411.1509, 2014.
[9] L. Bo, X. Ren, and D. Fox, 「Learning hierarchicalsparse features for rgb-d object recognition,」 International Journal ofRobotics Research, vol. 33(4), pp. 581-599, April 2014.
[10] B. Zhou, A. Lapedriza, A. Khosla, A. Oliva,and A. Torralba, 「Places: A 10 million Image Database for Scene Recognition,」IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. pp(89),pp. 1-1, July 2017.
[11] K. Simonyan and A. Zisserman. 「Verydeep convolutional networks for large-scale image recognition,」 arXiv:1409.1556v2, 2015.
[12] K. He, X. Zhang, S. Ren, and J. Sun,「Deep residual learning for image recognition,」 arXiv: 1512.03385, 2015.
[13] D. Bai, C. Wang, B. Zhang, X. Yi andX. Yang, 「CNN Feature boosted SeqSLAM for Real-Time Loop Closure Detection,」arXiv: 1704.05016v1, 2017.
[14] X. Gao and T. Zhang, 「Loop closure detectionfor visual slam systems using deep neural networks,」 In the 34th Chinesecontrol conference, Hangzhou, July 2015.
[16] Y. LeCun, L. Bottou, Y. Bengio, P. Haffner,「Gradient-based learning applied to document recognition,」 Proceedings of theIEEE, Vol. 86(11), Nov. 1998, pp. 2278-2324.
[17] R. Arroyo, P. F. Alcantarilla, L. M. Bergasa,and E. Romera, 「Fusion and binarization of CNN features for robust topologicallocalization across seasons,」 in IEEE/RSJ International Conference onIntelligent Robots and Systems (IROS), Daejeon, 2016.
[18] Yangqing Jia, Evan Shelhamer, JeffDonahue, Sergey Karayev, Jonathan Long, Ross Girshick, Sergio Guadarrama, andTrevor Darrell, 「Caffe: Convolutional Architecture for Fast Feature Embedding,」 arXiv:1408.5093,2014.
[19] Jianliang Zhu, Yunfeng Ai, Bin Tian,「Real-time vehicle queue estimation of large-scale traffic scene,」 in IEEEInternational Conference on Image, Vision and Computing, 2017, pp. 1160-1165.
[20] A. J. Glover, W. Maddern, M. Warren,S. Reid, M. Milford, and G. F. Wyeth, 「Open FABMAP: An open source toolbox forappearance based loop closure detection,」 in IEEE International Conference on Roboticsand Automation (ICRA), Saint Paul, 2012, pp. 4730-4735.
[21] R. Arroyo, L. M. Bergasa, and E.Romera, 「Open ABLE: An Open-source Toolbox for Application in Life-Long VisualLocalization of Autonomous Vehicles,」 In IEEE 19th International Conference on IntelligentTransportation Systems (ITSC), Rio de Janeiro, Nov. 2016.
作者情況:
*This work was supported in part by the National Natural Science
Foundation of China under Grant 61503380 and in part by the Natural Science Foundation of Guangdong Province, China under Grant 2015A030310187.
Jiangliang ZhuandYunfeng Ai(corresponding author) are with the
School of Artificial Intelligence, University of Chinese Academy of Sciences, Beijing 100190, China (e-mail:zhujianliang15@mails.ucas.edu.cn,
aiyunfeng@ucas.ac.cn).
Bin Tianis with the State Key Laboratory of Management and Control for Complex Systems, Institute of Automation, Chinese Academy of Sciences,Beijing 100190, China, and also with the Cloud Computing Center, Chinese Academy of Sciences,Dongguan 523808, China (e-mail: bin.tian@ia.ac.cn).
Dongpu Caois with the Department of Mechanical & Mechatronics
Engineering, University of Waterloo, Waterloo, Ontario N2L 3G1, Canada, (e-mail: dongpu.cao@uwaterloo.ca).
Sebastian Schereris with the Robotics Institute, Carnegie Mellon
University, Pittsburgh, PA 15213, U.S.A, (e-mail: basti@cs.cmu.edu).
智車科技(IV_Technology)Darkiler編譯
※沃爾沃XC40在E-NCAP評估中獲得五星評級
※博世和戴姆勒將在加州設立自動駕駛汽車服務試點
TAG:汽車測試 |