信息技術論文:一種智能駕駛信息融合與控制的方法及實現
來源:未知 2020-08-05 13:15
針對智能駕駛中,各類傳感器位置不同、性能各異、融合難度大的問題,本文根據人類自然認知規律,提出了一種利用不同大小柵格構成變粒度雷達圖,完成各類傳感器信息融合的框架
信息技術論文:一種智能駕駛信息融合與控制的方法及實現
摘要:針對智能駕駛中,各類傳感器位置不同、性能各異、融合難度大的問題,本文根據人類自然認知規律,提出了一種利用不同大小柵格構成變粒度雷達圖,完成各類傳感器信息融合的框架。在此基礎上,采用分段在線優化方式實現模型預測控制(MPC)方法,克服了傳統MPC方法約束多、計算量大、難以實用化的缺點。實車系統實驗表明本方法可行、有效,采用本文方法的智能車輛參加2014中國智能車未來挑戰賽,在全國22個參賽車隊中獲得第四名。
0 引言
智能駕駛車輛通過安裝在車身不同位置的傳感器采集車輛周圍環境信息,結合地理信息系統、組合導航系統提供的導航定位信息,利用車載計算機系統進行數據分析處理,控制車輛方向和速度,使車輛在無人駕駛的情況下,安全、平穩的完成指定任務,在國防和國民經濟領域都具有廣泛的應用前景,已成為國內外各大汽車廠商、科研機構的研究熱點[1-4]。
根據信息流向,智能駕駛車輛信息處理流程可分為環境感知、信息融合、智能決策、車輛控制四個環節[5],如圖1所示。其中,環境感知信息包括道路、交通標志、行人行為、周邊車輛等信息,位于回路前端。這些信息的獲取基于車載的多種異構傳感器設備,主要有攝像頭、雷達、GPS接收機、慣導等。在這些傳感器配準和標定的基礎上,進行信息融合,決策環節再據此進行路徑規劃,計算安全、可行、平滑的目標路徑。控制環節位于回路后端,通過自動控制手段確定方向盤轉角、油門或剎車開
度,使車輛接近目標狀態。由于傳感器種類不同,優缺點各異,對各類異構傳感器進行相互映證、沖突消解、去偽存真,顯得尤為重要。[1]
圖1 無人駕駛車輛信息處理流程
本文提出了一種基于變粒度柵格圖對智能駕駛車輛上多類、異構的傳感器進行信息融合的方法,并在此基礎上利用一種改進的PID控制算法進行車輛控制,實驗表明該方法具有較好的效果。
1 多傳感器信息融合
1.1 傳感器配置方案
傳感器配置是無人駕駛車輛感知周邊環境的硬件基礎。部分研究團隊傾向于主要依賴攝像頭等視覺傳感器進行環境感知,如意大利Parma大學的無人車團隊[6]。也有部分研究團隊,傾向于主要依賴雷達傳感器進行環境感知,典型代表是谷歌公司的無人駕駛車輛[7]。智能駕駛車輛傳感器配置沒有最優解,也沒有唯一解。大部分研究團隊都在車身各位置裝備多個攝像頭、激光雷達、毫米波雷達等多種傳感器,并同時配有GPS/慣導組合定位系統,完成環境感知與車輛定位。我團隊研發的猛獅4號車傳感器配置方案如圖2所示。
(a) 前向傳感器配置
(b) 后向傳感器配置
圖2 猛獅4號車傳感器配置方案
其中,前向八線和一線激光雷達用于探測車輛前方障礙物;頂部八線激光雷達用于搜索路面區域,檢測道路邊緣;后向一線和毫米波雷達用于探測車輛后方障礙物;三個水平攝像頭分別用于檢測道路標線、交通標志牌與紅綠燈;兩個安裝在后視鏡處的俯視攝像頭用于輔助檢測車道標線。傳感器的品牌型號、探測距離和探測角度如表1所列。此外,車輛還裝備有支持RTK技術[8]的GPS/慣導組合導航系統,理想情況下可為無人駕駛車提供厘米級別的定位精度。
表1 傳感器參數表
傳感器 |
品牌 |
型號 |
探測距離/米 |
探測角度/度 |
前向八線激光雷達 |
IBEO |
LUX 8 |
200 |
110 |
前向一線激光雷達 |
SICK |
LMS291 |
80 |
180 |
頂部八線激光雷達 |
IBEO |
LUX 8 |
200 |
110 |
后向一線激光雷達 |
SICK |
LMS291 |
80 |
180 |
后向毫米波雷達 |
Delphi |
ESR |
60 |
90 |
水平攝像頭1 |
PIKE |
F100C |
|
|
水平攝像頭2 |
PIKE |
F100C |
|
|
水平攝像頭3 |
PIKE |
F100C |
|
|
左俯視攝像頭 |
DH |
SV401FC |
|
|
右俯視攝像頭 |
DH |
SV401FC |
|
|
1.2 路權雷達圖模型
不同類型的傳感器通過聲、光、電等物理信號感知周圍環境,其工作機理不同,安裝在車身上的位置也不同。即使是同一類傳感器,其精度、有效范圍、參數設置等也不相同。因此,需要通過參數配準及位置標定,將不同傳感器感知并處理得到的信息,映射到統一的坐標系中。
路權,是車輛行進中任一時刻對前方所需空間的占有權,一輛在行車的路權是一個流動的扇形區。基于車輛行駛中路權變化的基本形式,本文提出了一種智能車輛利用變粒度的路權雷達圖進行信息融合的方法,利用不同大小的柵格構成變粒度雷達圖形式,融合攝像頭、雷達等各類傳感器的環境感知信息,顯示車輛可擁有的路權空間及其變化趨勢。利用路權雷達圖進行信息融合,可實時有效完成車輛上多種類別、不同安裝位置傳感器的感知信息的融合,判斷車輛可擁有的路權空間及其變化趨勢,為智能決策、路徑規劃、人機交互、無人駕駛等提供統一的基礎框架。
圖3 路權雷達圖示意圖
如圖3所示,車輛行駛中,其幾何中心即為路權雷達圖中心O,覆蓋半徑R=200m。設距中心O第i圈柵格大小為Di,Di隨路i增大而遞增,即離智能車輛越近,路權雷達圖柵格的尺寸越小、精度越高;離智能車輛越遠,路權雷達圖柵格的尺寸越大、精度越低,如柵格徑向最小5cm,最大400cm;路權雷達圖中的角度分辨率可根據駕駛關注區域改變,也可固定。由此構成的變粒度柵格,可用數組結構與之對應。
路權雷達圖始終寄生在運行中的車輛上,與車速相關,并隨時間動態變化,其更新周期由傳感器采樣頻率、本車行駛狀態等因素決定。
在融合多類傳感器檢測結果后,會得到本車擁有的周圍路權狀況及變化趨勢,形成對智能駕駛中將發生的車道內的跟馳模式、相鄰車道的換道模式、或路口的通行模式(包括左轉彎、右轉彎、直行、U字掉頭)等基本駕駛行為控制策略的基礎平臺,進行局部路徑的動態規劃、協同導航等。
1.3 路權雷達圖覆蓋范圍論證
同類型的傳感器通過聲、光、電等物理信號感知周圍環境,其工作機理不同,安裝在車身上的位置也不同。即使是同一類傳感器,其精度、有效范圍、參數設置等也不相同。因此,需要通過參數配準及位置標定,路權雷達圖應當覆蓋智能車輛行駛中的安全距離。在智能車安全距離的計算中,需要綜合考慮車速、可能出現的濕滑路面及駕駛員的反應時間。我國道路交通安全法實施條例第70條規定:高速公路應當標明車道的行駛速度,最高車速不得超過120km/h。
設濕滑路面附著系數
,一般駕駛員反應時間
在0.35s與0.65s之間,為安全起見,取
,車輛限速
。
在反應時間內,車輛做勻速運動,前進距離為:
之后剎車,車輛做勻減速運動,前進距離為:
安全距離為
。
因此,在本較佳實施例中,路權雷達圖的半徑不得小于195米。
1.4 路權雷達圖柵格精度論證
對于智能車輛,為保證安全行駛,若給定任意距離D,則對應一個保證車輛安全行駛的最大速度
。距離D處的扇形柵格徑向長度為采集-感知-控制周期T內,車輛走過的距離,即
。根據實際情況,T=100ms。路權雷達圖由多圈柵格構成,位于同一圈的柵格,其徑向長度相同。設從雷達圖中心向外側數,第n圈柵格外側與雷達圖中心的距離為
,其對應的最大安全速度是
由
得:
柵格精度
,
受限于傳感器精度,柵格精度最細為5cm
序列由下面遞推公式確定:
據此計算得出,本例中路權雷達圖半徑為197.7m,共有140圈柵格;柵格縱向長度最小為5cm,最大約為336cm;中間柵格的徑向長度可根據遞推公式計算得出。
下面對角度分辨率進行分析:設高速公路車道寬L=3.5m,路權雷達圖依據角度劃分為N份。如果要求在路權雷達圖覆蓋范圍最遠處能夠分辨不同車道,則應滿足:
,計算得到:
因此,不妨設定雷達的角度分辨率為 。
則路權雷達圖共包括140×360=50400個柵格。在計算機中建立140×360大小的數組,供信息融合使用。
2 基于路權雷達圖的控制方法
2.1 變粒度路權雷達圖控制框架
基于智能駕駛任務的完成,智能駕駛的控制可分為以下三個層次[9]:
導航層(Navigation),負責路徑規劃與選擇,本文對此部分不予討論。
引導層(Guidance),本層分為兩級:
第1級:駕駛的基本模式決策(跟馳、超車、換道、自由駕駛)。
第2級:處于某模式時,車輛的位置軌跡和速度軌跡規劃。
操作層(Manipulation):駕駛的基本動作,如操作油門、制動、方向盤等,按照預定軌跡行車。
為保證智能車良好運作,解決以路權雷達圖為信息融合手段時引導層與操作層的執行問題,本文提出如下控制框架,如圖4所示:
圖4 變粒度路權雷達圖控制框架
本框架本質上為利用預測控制方法對智能車進行閉環控制的方法。首先,由路權雷達圖給出信息融合后的參考路徑,結合車輛動力學模型,在相應時域范圍內做指標優化計算,結合智能車期望的車距特性、期望跟蹤誤差特性,將優化結果輸入至控制(執行)系統,執行系統反饋結果與優化模塊優化,結果重新輸入車輛動力學模塊,更新車輛動力學模型,完成回路。
2.2 車輛動力學特性建模
假設忽略懸架作用,僅考慮車輛縱向、橫向運動,模型的輸入為縱向制動力/驅動力以及方向盤轉角,輸出為縱向速度、加速度、橫向車速、質心偏角與橫擺角速度等,假設車輛兩側動力學對稱,則整車模型如圖5所示:
圖5 車輛動力學模型
如圖所示,、為前后輪側向力,、為前后輪縱向力,、為前后輪側向偏角,、分別為車輛縱向、橫向速度,為車輛橫擺角速度,、分別為汽車前后軸距離質心距離。設車輛前輪轉角為,由于車輛在高速行駛過程中,前輪轉角一般較小,因此可近似認為,。據圖5,可寫出如下平衡方程[10-15]:
(2-1)
其中,是車輛在X方向所受力。
由圖5可得微分方程:
(2-2)
其中,為車輛質量,為滾動阻力系數,為坡度,為重力加速度,為空氣阻力系數,為迎風面積,、分別為前后輪轉動慣量,為輪胎的滾動半徑。
假設轉向系統傳動比是固定值,則可得:
(2-3)
其中,為方向盤轉角,為轉向系統傳動比。
聯立式(2-1)、式(2-2)式(2-3),可得:
(2-4) 其中,
(2-5)
由式(2-4)可得,車輛縱向加速度受前輪側偏力、橫向速度及橫擺角速度等橫向運動參數的影響。同理可得,
(2-6)
(2-7)
其中,為車輛繞Z軸的轉動慣量。
2.3 模型預測控制中改進的分段滾動時域優化
傳統的模型預測控制方法,由于約束和目標過多,計算成本過大,因此往往在仿真和實驗階段,能夠有效地完成控制任務,而在實際工程實現中,不能達到控制目標。為適用于快變對象的實時控制,真正滿足工程需要,本文嘗試降低約束和目標數量,采用分段在線優化的方式解決問題。
首先,對模型進行精確離散化,記采樣周期為T,則有:
(2-8)
其中,,表示第個離散的時刻,我們可以得到:
(2-9)
式中:
(2-10)
此離散模型的目的是,通過車身各項傳感器測量得到當前時刻狀態,即可預測在輸入時預測將來k個采樣周期的車輛的運動狀態,其中N表示模型預測控制方法的預測空間長度。
設 表示預測狀態, 表示目標狀態,則問題轉化為:尋找一合適的輸入,滿足如下條件:,最終實現智能車輛的模型預測控制。
表述為優化問題即為:
模型約束條件:
式中:
3 實車實驗及結果分析
3.1 實驗背景
2014年11月15日-16日,由國家自然科學基金委員會主辦、常熟市人民政府承辦的2014 年“中國智能車未來挑戰賽”在江蘇常熟舉行。
比賽分高速公路、城郊道路的綜合道路行駛任務測試和城區道路特定行駛任務(九宮格)測試兩部分,具體情況如下:
圖6 綜合道路行駛任務區域
圖6為綜合道路行駛任務區域,全長14.5公里,共有紅綠燈4處,拒馬路障6處,U字掉頭兩處,考點涉及高架橋路段行駛、校園進出等7個項目,對智能車的全局導航能力、速度控制與方向控制水平提出了較高要求。
城區道路測驗(九宮格地區)則著重考察智能車環境感知能力與控制的精細程度。如圖7所示,城區道路試驗包含行人過街讓行、施工路段繞行、側方停車、停止線停車、U字掉頭等6個科目。
實驗結果及分析
綜合道路測試,總里程共計14.5km,總用時0:38:22,全程無人工干預,裁判干預1次耗時0:02:48,正常駕駛時間0:34:15,路權雷達圖完成沖突消解21次,相互印證3552次。最高速度Vm=40 km/h,平均速度Va=25.4km/h,控制周期100ms,決策輸出指令11631次,控制執行指令6579次,剎停9次。 綜合道路部分速度曲線如圖8所示:
圖8 綜合道路地區速度曲線
綜合地區總制動次數44次(未制動油壓52當量),輕微制動次數(制動油壓在60以下)31次,較大制動次數(制動油壓在60—80間)6次,強制動次數(制動油壓80以上)5次。總油門控制調節次數5122次,調節周期100ms,最高設定速度:39km/h,平均行駛速度:28.29km/h,最高實際速度39.76km/h(出現在高架下坡2/3處),停車誤差為0.354m。
綜合測試區域車輛的橫向控制情況如圖9所示:
圖9 綜合道路地區轉向情況
由圖中可以看出,轉角范圍大多集中在-50度~50度區間,經統計該區間共進行轉向635次,占總轉向比例為58.1%;其中0度轉向共進行175次。控制轉向指令(4296次)遠大于決策指令次數,因為控制會將決策發送的轉角度數進行分解,從而增加了指令的數量。
九宮格地區道路比賽總里程共計2.4km,總用時0:13:17,全程無人工干預,路權雷達圖完成沖突消解9次,相互印證311次。最高速度Vm=40 km/h,平均速度Va=16.22km/h,控制周期100ms,決策輸出指令380次,控制執行指令279次,剎停3次。 九宮格道路地區控制曲線跟隨目標曲線情況如圖8所示:
圖10 九宮格地區路徑跟隨情況
九宮格地區路程短,但是路況相對復雜,在任務D點(見圖7)需要完成定點側位停車與U字掉頭,對控制要求非常高。我們車隊是22個參賽車隊中僅有的5個滿分通過側位停車考試項目的車隊之一。
其中,總制動次數56次,輕微制動(制動油壓在60以下)次數33次,較大制動次數(制動油壓在60-80間)次數14次,強制動次數(制動油壓80以上)9次。總油門調節次數1619次,調節周期100ms,最高設定速度40km/h,最高實際速度39.22km/h,停車誤差0.233m。
4 結語
(1)針對智能車多傳感器融合,提出一種基于變粒度柵格的路權雷達圖的融合框架,體現了人類認知的特點。
(2)應用分段優化的MPC控制方法,并應用于實車原型系統進行驗證,成功解決了傳統MPC控制方法計算量大,無法應用于實時實車系統的問題。
(3)原型系統在常熟2014比賽中表現優異,獲得22個車隊中第四名的成績,整個賽程人工干預僅一次,證明了信息融合與控制方法的有效性。
[參 考 文 獻]
[1]Yuan Li, Chunyu Yu, Fengzhi Dai, etc. Implementation of a versatile intelligent vehicle with tracking and remote control for hospital or nursing homes[C]. Software Engineering and Service Science (ICSESS), 2012 IEEE 3rd International Conference on, 2012. 505 - 508.
[2]L.D. Baskar, B. De Schutter, J. Hellendoorn, etc. Traffic control and intelligent vehicle highway systems: a survey[J]. IET Intelligent Transport Systems, 2011,5(1):38 – 52.
[3]Peacock, Brian. Human Factors in Intelligent Transportation Systems[M]. IIE Transactions, 1999. 25-56.
[4]Miad Faezipour, Mehrdad Nourani, Adnan Saeed, etc. Progress and challenges in intelligent vehicle area networks[J]. Communications of the ACM, 2012, 55(2):90-100.
[5]Long Chen, Qingquan Li, Ming Li, etc. Traffic sign detection and recognition for intelligent vehicle[C]. IEEE Intelligent Vehicles Symposium, 2011.908-913.
[6]曹亮.基于視覺信息的車載智能駕駛系統的研究與實現[D],北京,北京交通大學,2012.
[7]Franck Gechter, Jean-Michel Contet, Stéphane Galland, etc. Virtual intelligent vehicle urban simulator: Application to vehicle platoon evaluation[J]. Simulation Modeling Practice and Theory, 2012, 24:103–114.
[8]Mhiri, R., Vasseur, P., Mousset, S., etc. Visual odometry with unsynchronized multi-cameras setup for intelligent vehicle application[C]. IEEE Intelligent Vehicles Symposium Proceedings,2014.1339 - 1344.
[9]張德兆.基于彎道行駛的車輛自適應巡航控制[D].北京,清華大學,2011.
[10]Jianmin Duan, Junqin Yao, Dan Liu, etc. A path tracking control algorithm with speed adjustment for intelligent vehicle[C]. Robotics and Biomimetics (ROBIO), IEEE International Conference, 2013.
[10]DianBo Ren,JiYe Zhang, JingMing Zhang,etc. Trajectory planning and yaw rate tracking control for lane changing of intelligent vehicle on curved road[J]. Science China Technological Sciences, 2011, 54(3):630-642.
[11]Guo Lie, Huang Xiaohui, Ge Pingshu, etc. Lane changing trajectory tracking control for intelligent vehicle on curved road based on backstepping[J]. Journal of Jilin University (Engineering and Technology Edition), 2013.
[12]王家恩,陳無畏,王檀彬等. 基于期望橫擺角速度的視覺導航智能車輛橫向控制, 機械工程學報, 2012,48(4).
[13]李琳輝,李明,郭景華等. 基于視覺的智能車輛模糊滑模橫向控制, 大連理工大學學報, 2013,53(5).
[14]趙熙浚,陳慧巖. 智能車輛路徑跟蹤橫向控制方法的研究, 汽車工程,2011,33(5).
[15]Linhui Li, Hongxu Wang, Jing Lian, etc. A Lateral Control Method of Intelligent Vehicle Based on Fuzzy Neural Network[J]. Advances in Mechanical Engineering, 2014.