知識文章
車用感知融合之物件偵測暨追蹤方法
車輛中心 研究發展處 馬新東
自動駕駛技術正以驚人的速度改變著我們的交通方式。這項技術不僅改變了我們對汽車的看法,也重新定義了使用者對行駛於道路上車輛的想像。然而,這一切的實現都依賴於一系列精密的感測器,它們就像是自動駕駛系統的神經末梢,使汽車能夠感知周圍環境;常見的車用感測器包括毫米波雷達、光達和攝影機等,每種感測器都有其獨特的特點,並且在不同的應用場景中發揮不同的作用。結合不同類型的感測器進行資訊融合,可以提供更全面、精確的環境感知,使自駕車能夠更好地理解周圍環境,識別道路上的物件(如:行人、車輛、機/腳踏車),以利後續進行車輛控制。
泛用感知融合技術概述
感知融合技術簡單來說,就是將各個獨立的異質感測器進行資料關聯並計算處理,以達到我們想要目的(例如:障礙物偵測、距離偵測等),目前較為廣泛應用的技術包含以下三種融合手段,如圖1,以光達與攝影機2個感測器融合為例,實際使用可依需求不同,自行增減不同類型的感測器:
1. 數據級融合(data level fusion):
透過空間座標對齊,直接融合各個感測器的原始數據(如:影像像素資訊與光達點雲資訊),進行融合計算與分析,進一步得出我們需要的偵測目標物資訊(如:目標物與本車的縱橫向距離、速度、類別等)。
2. 特徵級融合(feature level fusion):
從原始感測器資料中初步提取代表性特徵(如:影像邊緣運算、光達之點雲密度等),再利用這些特徵,進行融合計算與輸出,如圖1.(b)特徵提取部分圖示,左圖為光達特徵資訊(彩色點為特徵點),右圖為影像特徵資訊(綠色點為特徵點)。
3. 目標級融合(object level fusion):
各個感測器獨立進行特徵提取後,透過這些感測器進行獨立演算法進行分析,將獲得的目標物理資訊(如:目標物與本車的縱橫向距離、速度)再進一步執行資料融合,最後輸出偵測結果,如圖1.(c)偵測分析演算法部分圖示,左圖為光達經演算法得出的物理資訊結果,右圖為影像經演算法得出的物理資訊結果。

圖1. 常見之感知融合應用技術
鑒於感測器技術發展,越來越多廠商開始提供具有偵測演算法功能的感測器,並考量到未來融合技術的泛用與維護性,車輛中心(ARTC)投入艙外感知融合之目標級融合技術相關研究,除了使用感測器所提供的數據外,並結合車身控制訊號(轉彎角度、速度資訊等),搭配目標級融合技術,針對感興趣區域進行障礙物目標偵測。
其系統架構如圖2所示,由數個感測器獲得目標物與道路資訊、由車身底盤系統獲得車身資訊,將上述資訊進行解碼與感興趣區域篩選過濾,篩選後的各個感測器目標物彼此進行數據關聯,以確定同一個目標物有來自不同感測器的資訊,接著將關聯後的感測器數據融合,計算出障礙物位置、速度及種類。
接著,將融合後的結果,進行目標物追蹤:利用上一幀目標物運動狀態(縱向速度與橫向速度)與追蹤資訊,預測當前幀的位置,並與當前融合結果進行資料關聯,以達到目標物追蹤之行為。可提供目標物存在連續性資訊,利於後續進行車輛控制。
最後,將我們所需要的融合資訊篩選、編譯,轉換成控制階段所需的通訊格式,並傳輸資料給控制端,至此車輛能夠理解周圍環境,進行車輛控制;但須注意,感知融合的目的主要是盡可能地降低由單一感測器所造成的誤差,因此融合輸出的資訊準確度仍與感測器的偵測能力有所相關,因此,視感知範圍需求,選擇搭配的感測器,挑選與過濾需要融合的資訊,也是融合技術成敗的一大關鍵。

圖2. 感知融合系統流程圖
小結
在自動駕駛系統中,通常會將多種感測器結合使用,合理的感測器搭配能夠提高系統的穩定性和安全性;結合不同類型的感測器,並搭配異質感知融合的物件偵測暨追蹤技術,使自駕車能夠更好地理解周圍環境,識別障礙物、行人、其他車輛等物理資訊(如:縱橫向相對距離、速度與物件類別),以利先進駕駛輔助系統執行任務的邏輯判斷與控制應用。