上海微系統(tǒng)所在智能駕駛場景感知研究方面取得進展

文章來源:上海微系統(tǒng)與信息技術研究所  |  發(fā)布時間:2024-03-22  |  【打印】 【關閉

  

近日,中國科學院上海微系統(tǒng)與信息技術研究所仿生視覺系統(tǒng)實驗室李嘉茂研究員團隊與路特斯機器人(LOTUS ROBOTICS)合作在智能駕駛感知領域取得了重要進展。針對智能駕駛感知的兩個關鍵問題——柵格占據預測(Occupancy Prediction)和全景分割(Panoptic Segmentation)取得了突破,兩項成果被機器人領域頂級國際學術會議2024 IEEE International Conference on Robotics and Automation(ICRA)錄用,分別題為“CVFormer: Learning Circum-View Representation and Consistency for Vision-Based Occupancy Prediction via Transformers”與“BEE-Net: Bridging Semantic and Instance with Gated Encoding and Edge Constraint for Efficient Panoptic Segmentation”。

CVFormer:基于Transformer的環(huán)視視角表征和一致性約束的柵格占據預測方法。

在智能駕駛中,柵格占據預測旨在表征空間中的對象分布,以指導路徑選擇。最直接的表征方法是將立體空間劃分為無數個堆疊的占據體素(voxel),但龐大的計算量導致難以在實車中部署。鳥瞰視角(Bird eyes view, BEV)的表征方式,將空間投影于單個水平面,可以大幅減少計算與存儲壓力,但由于缺失了細粒度的結構信息,在開放場景中對象的形狀或外觀不明確時,往往會出現錯誤估計障礙物的情況。TPVFormer基于傳統(tǒng)三視圖的占據預測方法,在BEV基礎上將表征平面擴展至三個,可客觀精細的表征三維環(huán)境,但該方法忽略了自車與表征平面的相對關系,導致場景中的視角重疊障礙物間難以分辨。

為解決上述問題,在TPVFormer基礎上,團隊提出了一種以自車為中心的環(huán)視視角的占據預測表征方法CVFormer。以汽車全景環(huán)視多視圖為輸入,建立環(huán)繞車輛的二維正交視角來表征三維場景,有效實現細粒度三維場景表征,并克服車體周身障礙物的視角遮擋問題。具體地,提出了環(huán)視視圖交叉注意力模塊構建二維環(huán)視特征,設計時序多重注意力模塊加強幀間關系的利用,并通過設計2D與3D類別一致性約束,增強網絡對場景的學習性能。本方法在駕駛場景占據預測權威評測數據nuScenes數據集上進行驗證,在預測精度上明顯優(yōu)于現有算法,達到了43.09%的mIoU性能指標,相比基線算法(TPVFormer)提高了102.3%,并將計算復雜度由O(n3)降低至O(n),展現了較強的可部署性,在路特斯下一代量產車型智能駕駛感知系統(tǒng)上完成了測試驗證。

柵格占據預測CVFormer在nuScenes數據集上達到最優(yōu)性能

本研究成果得到了科技部科技創(chuàng)新2030、國家自然科學基金、中國科學院青促會、上海市優(yōu)秀學術帶頭人等項目支持。上海微系統(tǒng)所仿生視覺系統(tǒng)實驗室研究生白正奇、副研究員石文君為論文共同一作,李嘉茂研究員為通訊作者。

BEE-Net:基于門控編碼和邊緣約束加強語義與實例關聯的高效全景分割

全景分割是理解場景中背景與對象個體的語義的基礎感知問題,是融合了語義分割與實例分割的綜合方法。其中,語義分割關注將圖像中的區(qū)域分割為不同的類別,而不區(qū)分不同的物體實例;實例分割則側重對每個實例對象進行獨立的分割。全景分割往往基于語義分割與實例分割的融合實現,既區(qū)分場景語義,又需要明確物體實例。全景分割方法在語義-實例分割任務融合中,往往由于二者預測結果間的矛盾,導致難以分辨合理的預測結果。

為解決這一問題,團隊設計了基于門控編碼和邊緣約束的端到端全景分割模型BEE-Net。該模型基于全局雙向信息交互以及多角度邊緣優(yōu)化,有效地緩解了全景分割中的語義-實例預測矛盾問題與邊緣分割挑戰(zhàn)。具體地,針對語義與實例分割特征感知融合,設計了輕量級門控編碼模塊進行多尺度全局特征信息交互,并通過語義-實例-全景三重邊緣優(yōu)化算法對邊緣分割質量進行針對性優(yōu)化,保持高效的同時,顯著提升了場景分割性能。本方法在駕駛場景分割權威數據集CityScapes上完成了驗證,取得了65.0%的PQ精度指標,在精度上超越了現有基于CNN的全景分割模型,同時在效率上優(yōu)于所有基于Transformer的全景分割模型。本方法兼顧了分割精度與效率的性能需求,在路特斯下一代量產車型智能駕駛感知系統(tǒng)上完成了測試驗證。

在CityScapes數據集上BEE-Net達到

基于CNN的全景分割模型最優(yōu)性能

本研究成果得到了科技部科技創(chuàng)新2030、上海市啟明星揚帆計劃、中國科學院青促會、上海市優(yōu)秀學術帶頭人等項目支持。上海微系統(tǒng)所仿生視覺系統(tǒng)實驗室研究生黃心陽、副研究員張廣慧為論文共同一作,李嘉茂研究員為通訊作者。