知識文章

自駕車多感測器對位技術

2020 / 07 / 15

車輛中心 研究發展處 陳盈仁

自駕車控制仰賴環境感測資訊以決定車輛行為,如加速、減速、閃避障礙物等。為達成無人駕駛自駕車更需要完整且精確的環境物件資訊,使用多種類感測器互相搭配,以克服單一感測器盲區以及應用環境之限制為最好的解決方法(參考前文:應用感知融合 強化自動煞車系統感測技術)以車輛中心(ARTC)打造的MIT自駕電動小型巴士- WinBus為例,車上配置有光達、攝影機及雷達打造而成的環境感測系統,如圖1。而使用多數量及多種類感測器首要面對的且最重要的議題即為自駕車多感測器對位技術。


圖1. WinBus感測器配置

多感測器對位分析與實現
以圖2(a)為例,車輛上安裝兩個感測器分別為感測器A及感測器B,於車輛前方有一物件行人1。因感測器A與B安裝的位置及角度皆不相同,感測器A與B偵測之行人位置亦不同,如圖2(b)所示,感測器A提供我們行人1在前方位置,同時間,感測器B則提供行人1在左方位置。故我們需要將感測器A與B及其他所有安裝於車上的感測器同步、統一到車輛的坐標系後,如圖2(b)右邊示意圖,方能進行後續感測資訊整合工作。


圖2. 多感測未對位情境示意圖

若感測器及物件相對車輛原點(中心)關係如圖3。可發現感測器A安裝於車輛原點正前方1m處,故所有由感測器A得到的物件位置皆比車輛原點少了1m。因此當我們取得感測器A偵測到的行人1位置需沿x方向平移1m才能得到車輛原點的距離,如圖4(a)。在感測器B部分,其安裝角度偏移45度且x方向與y方向各有2m及1m的偏移。因此對於感測器B偵測到的行人1位置需先旋轉45度然後再座標上平移(2m, 1m),如圖4(b)。


圖3. 感測器A、感測器B、行人1於車輛坐標相對位置


圖4. 感測器對位過程

當感測器A與B的偵測結果都經過上述轉換後,行人1即可於車輛原點對位至同一點(3,0),如圖5。最終對於所有安裝於不同位置不同方向的感測器,我們皆可透過相同手法將其對位至相同或近似點,以利接續後續的感知融合演算法應用。


圖5. 行人1來自感測器A與B的偵測結果

小結
應用多感測器對位技術,實車得以透過安裝多數量與多種類感測器於不同位置以實現環周360度物件偵測。且相同物件皆於相近位置,進一步由不同感測器取得其位置、速度及種類等物理資訊,例如:由光達取得位置、由雷達取得速度並由攝影機取得種類;或藉由分析各感測器共同資訊,如位置、速度,取得更精確的位置、速度偵測結果,滿足自駕車對於環境感測的進階需求,如圖6。


圖6. 實車感測系統偵測結果示意

相關可移轉技術:
全速域壅塞輔助系統(連結

訂閱電子報

「填妥下列資料,即可完成訂閱電子報手續」

ARTC行動辦公室

提供同仁各項作業系統之快速連結服務

SSL VPN服務 WEB Mail服務