智能汽車

自動駕駛汽車的處理能力

2025China.cn   2018年09月04日

  在未來20 - 30年中,自動駕駛汽車(AV)將改變我們的駕駛習慣、運輸行業并更廣泛地影響社會。 我們不僅能夠將汽車召喚到我們的家門口并在使用后將其送走,自動駕駛汽車還將挑戰個人擁有汽車的想法,并對環境和擁堵產生積極影響。市場調研公司ABI Research預測:到2030年,道路上四分之一的汽車將會是自動駕駛汽車。

  行業專家已經為自動駕駛的發展定義了五個級別。 每個級別分別描述了汽車從駕駛員那里接管各項任務和責任的程度,以及汽車和駕駛員之間如何互動。 諸如自適應巡航控制這類功能是先進駕駛員輔助系統(ADAS)的示例,并且可以被認為是第1級的能力。 目前,市場上出現的一些新車正在實現第2級功能;但作為一個行業,我們僅僅是才觸及ADAS系統的表面,更不用說完全自主駕駛了。

  示意圖:自動駕駛的五個級別

  自動駕駛的級別

  當我們去逐級實現自動駕駛的不同級別時,處理能力對于實現完全自動化這一愿景至關重要,此時駕駛員可以“放開方向盤、移開目光和放飛心靈”。 在這個級別上,車內的人只是乘客;同時因為沒有司機,所以也不需要方向盤。然而,在我們實現該目標之前,我們應該首先了解從非自動駕駛到完全自動駕駛之間的各種級別。

  ADAS/AV有三個主要元素:傳感、計算和執行。

  用感知去捕捉車輛周圍環境的現狀。 這是靠使用一組傳感器來完成的:雷達(長距離和中距離),激光雷達(長距離),攝像頭(短距離/中距離),以及紅外線和超聲波。 這些“感官”中的每一種都能捕捉到它所“看到”的周圍環境的變體。 它在此視圖中定位感興趣的和重要的對象,例如汽車、行人、道路標識、動物和道路拐彎。

  示意圖:汽車從激光雷達、雷達和攝像頭中看到的視圖

  計算階段是決策階段。 在這個階段中,來自這些不同視圖的信息被拼合在一起,以更好地理解汽車“看到”的內容。 例如,場景中到底發生了什么? 移動物體在哪里? 預計的動作是什么?以及汽車應該采取哪些修正措施? 是否需要制動和/或是否需要轉入另一條車道以確保安全?

  執行即最后階段是汽車應用這一決策并采取行動,汽車可能會取代駕駛員。 它可能是制動、加速或轉向更安全的路徑;這可能是因為駕駛員沒有注意到警告,及時采取行動并且即將發生碰撞,或者它可能是完全自主系統的標準操作。

  第2級實際上是ADAS路徑的起點,其中可能在安全解決方案包中制定多種單獨的功能,例如自動緊急制動、車道偏離警告或輔助保持在車道中行駛。

  第3級是諸如2018款奧迪A8等目前已量產汽車的最前沿,這意味著駕駛員可以“移開目光”一段時間,但必須能夠在出現問題時立即接管。

  第4級和第5級兩者都可提供基本上是完全的自動駕駛。 它們之間的區別在于:第4級駕駛將限于諸如主要高速公路和智慧城市這樣的具有地理緩沖的區域,因為它們會重度依靠路邊的基礎設施來維持其所在位置的毫米級精度畫面。

  第5級車輛將可在任何地點實現自動駕駛。在這個級別,汽車甚至可能沒有方向盤,并且座椅可以不是都面向前方。

  自動駕駛所需的處理能力

  在自動駕駛的每個級別上,應對所有數據所需的處理能力隨級別的提升而迅速增加。根據經驗,可以預計從一個級別到下一個級別的數據處理量將增加10倍。 對于完全自動駕駛的第4級和第5級,我們將看到數十萬億次浮點運算的處理量。

  從傳感器的角度來看,下表為您提供了其需求量的一個指引。 第4級和第5級將需要多達八個攝像頭,盡管人們甚至已經提出了需要更高的攝像頭數量。 圖像捕獲裝置的分辨率為2百萬像素,幀速為30-60幀/秒,所以要實時處理所有這些信息是一項巨大的處理任務。對于車上的雷達,其數量可能需要多達10臺以上,這是因為需要在22GHz和77GHz之間搭配使用短距離、中距離和長距離(100m 以上)的雷達。即使在第2級,仍然需要對從攝像頭和雷達捕獲的數據進行大量處理。

  示意圖:自動駕駛和應用的不同級別

  對于處理能力,我們將關注攝像頭需要做什么,這是因為它與前置雷達一起是支撐諸如在特斯拉中使用的自動駕駛儀的主要傳感器。

  攝像頭系統通常是廣角單攝或立體雙攝,在車上呈前向或以環繞視場(360°)配置。 與雷達和激光雷達不同,攝像頭感應設備取決于處理輸入的軟件的功能;攝像頭的分辨率很重要,但沒有達到你想象的程度。

  為簡化處理過程,我們使用了一種被稱為卷積神經網絡(CNN)的重要算法。CNN是從攝像頭源中提取和分辨信息的一種高度專業化和高效的方法。在我們的汽車案例中,它從攝像頭獲取輸入并識別車道標記、障礙物和動物等。CNN不僅能夠完成雷達和激光雷達所能做的所有事情,而且能夠在更多方面發揮作用,例如閱讀交通標識、檢測交通燈信號和道路的組成等。事實上,某些一級供應商(Tier 1)和汽車原始設備制造商(OEM)正在研究通過攝像頭和雷達組合來降低成本。

  CNN將機器學習的元素帶入汽車。神經網絡的結構都普遍基于我們自己大腦的連線結構。人們首先必須選擇想要實現的網絡類型,以及其按照層數來決定的深度。 每層實際上是前一層和后一層之間的一組互連節點。為了實現神經網絡,大量的智能訓練數據將被應用于它;這是一種高度計算密集型的操作,大多數情況下是離線進行的。對于諸如一種道路情況的圖像和視頻這樣的每一次通過,網絡通過調整各層內的相關因素來進行學習。當訓練數據通過它時,這些相關因素可以從數百萬次數據分析中得到提升。 一旦完成訓練,就可以將網絡和相關因素加載到諸如CPU或GPU計算或特定CNN加速器之類的結構中。

  這種類型的算法和網絡的優點之一是它可以用更新的或更好的相關因素去升級,因此它總是在不斷改進。經過廣泛的比較,我們發現在GPU計算模式上運行的CNN比在當前高端嵌入式多核CPU上快20倍且功耗也低得多。同樣,伴隨著CNN向硬件加速方向發展,我們也已看到性能還可進一步提高20倍,而且在功耗上也可進一步改善。

  展望未來

  隨著我們走向采用無人駕駛汽車的未來,所需的計算能力將隨著傳感器的數量、幀速和分辨率而擴展。 從性能和功率兩個角度來看,卷積神經網絡正在成為解釋圖像數據的最有效方式。 這將引領在網絡的邊緣放置更多處理資源的趨勢,例如在汽車案例中,計算資源是在汽車自身內部,而不是將該處理能力卸載到云并且依賴于始終在線的蜂窩連接。 對于那些提供處理能力、算法和訓練數據的人來說,自動駕駛潛藏著巨大的機會并將成為現實。

標簽:自動駕駛 我要反饋 
智造中國
專題報道
2020IARS華南展,定制你的智能工廠
2020IARS華南展,定制你的智能工廠

2020年12月1日-4日,第二屆中國(華南)國際機器人與自動化展覽會是以自動化產品和技術為核心的智能硬件,以工業機器人

解構工業物聯網數字化轉型
解構工業物聯網數字化轉型

研華將于2019年12月6日舉辦“2020研華工業物聯網全球合作伙伴會議”,同步在線直播,與廣大線上線下伙伴共同探討工業

以創新 瞰未來——2019 ABB中國電氣事業部廈門創新日圖文直播
以創新 瞰未來——2019 ABB中國電氣事業部廈門創新日圖文直播

ABB電氣事業部的技術涵蓋從變電站到末端用電的整個電氣價值鏈,可實現更加安全可靠的電力供應。ABB的中低壓產品和系統中集

遗漏广西快乐10分走势图