CVPR2020 | 夜間檢測挑戰(zhàn)賽兩冠一亞,為自動駕駛保駕護航
當然這也帶來了模型參數(shù)大小和訓練時間的增加,屬于 speed–accuracy trade-off。該團隊也嘗試過其他的改進方式,但最終還是選擇了實用性更強的 CBNet,該方法不用再額外擔心預訓練權重的問題。
該團隊選擇了性價比較高的雙 backbone 模型結構。
3. 數(shù)據(jù)增強
該團隊發(fā)現(xiàn) Pixel-level 的增強方式導致了性能結果大幅下降,因此沒有在這個方向繼續(xù)嘗試。
而圖像增強方式 Retinex,從視覺上看帶來了圖像增強,但是該方法可能破壞了原有圖片的結構信息,導致最終結果沒有提升。
于是,該團隊最終選擇了 Spatial-level 的增強方式,使得結果有一定的提升。
實驗細節(jié)
1. 將 Cascade rcnn + DCN + FPN 作為 baseline;
2. 將原有 head 改為 Double head;
3. 將 CBNet 作為 backbone;
4. 使用 cascade rcnn COCO-Pretrained weight;
5. 數(shù)據(jù)增強;
6. 多尺度訓練 + Testing tricks。
實驗結果
下圖展示了該團隊使用的方法在本地驗證集上的結果:
該團隊將今年的成績與去年 ICCV 2019 同賽道冠軍算法進行對比,發(fā)現(xiàn)在不使用額外數(shù)據(jù)集的情況下,去年單模型在 9 個尺度的融合下達到 11.06,而該團隊的算法在只用 2 個尺度的情況下就可以達到 10.49。
未來工作
該團隊雖然獲得了不錯的成績,但也基于已有的經(jīng)驗提出了一些未來工作方向:
1. 由于數(shù)據(jù)的特殊性,該團隊嘗試使用一些增強方式來提高圖片質(zhì)量、亮度等屬性,使圖片中的行人更易于檢測。但結果證明這些增強方式可能破壞原有圖片結構,效果反而降低。該團隊相信會有更好的夜間圖像處理辦法,只是還需要更多研究和探索。
2. 在允許使用之前幀信息的賽道二中,該團隊僅使用了一些簡單的 IoU 信息。由于收集這個數(shù)據(jù)集的攝像頭一直在移動,該團隊之前在類似的數(shù)據(jù)集上使用過一些 SOTA 的方法,卻沒有取得好的效果。他們認為之后可以在如何利用時序幀信息方面進行深入的探索。
3. 該領域存在大量白天行人檢測的數(shù)據(jù)集,因此該團隊認為之后可以嘗試 Domain Adaption 方向的方法,以充分利用行人數(shù)據(jù)集。
參考文獻:
[1] Lin T Y , Dollár, Piotr, Girshick R , et al. Feature Pyramid Networks for Object Detection[J]. 2016.
[2] Dai J, Qi H, Xiong Y, et al. Deformable Convolutional Networks[J]. 2017.
[3] Cai Z , Vasconcelos N . Cascade R-CNN: Delving into High Quality Object Detection[J]. 2017.
[4] Xie S , Girshick R , Dollar P , et al. Aggregated Residual Transformations for Deep Neural Networks[C]// 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE Computer Society, 2017.
[5] Bochinski E , Eiselein V , Sikora T . High-Speed tracking-by-detection without using image information[C]// 2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS). IEEE, 2017.
[6] Henriques J F , Caseiro R , Martins P , et al. High-Speed Tracking with Kernelized Correlation Filters[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3):583-596.
[7] Song G , Liu Y , Wang X . Revisiting the Sibling Head in Object Detector[J]. 2020.
[8] Li A , Yang X , Zhang C . Rethinking Classification and Localization for Cascade R-CNN[J]. 2019.
[9] Wu, Y., Chen, Y., Yuan, L., Liu, Z., Wang, L., Li, H., & Fu, Y. (2019). Rethinking Classification and Localization in R-CNN. ArXiv, abs/1904.06493.
[10] Liu, Y., Wang, Y., Wang, S., Liang, T., Zhao, Q., Tang, Z., & Ling, H. (2020). CBNet: A Novel Composite Backbone Network Architecture for Object Detection. ArXiv, abs/1909.03625.

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 AI 眼鏡讓百萬 APP「集體失業(yè)」?
- 2 大廠紛紛入局,百度、阿里、字節(jié)搶奪Agent話語權
- 3 深度報告|中國AI產(chǎn)業(yè)正在崛起成全球力量,市場潛力和關鍵挑戰(zhàn)有哪些?
- 4 上海跑出80億超級獨角獸:獲上市公司戰(zhàn)投,干人形機器人
- 5 一文看懂視覺語言動作模型(VLA)及其應用
- 6 國家數(shù)據(jù)局局長劉烈宏調(diào)研格創(chuàng)東智
- 7 下一代入口之戰(zhàn):大廠為何紛紛押注智能體?
- 8 百億AI芯片訂單,瘋狂傾銷中東?
- 9 Robotaxi新消息密集釋放,量產(chǎn)元年誰在領跑?
- 10 格斗大賽出圈!人形機器人致命短板曝光:頭腦過于簡單