ECCV 2020 | 云端參會攻略之Oral篇,前排占位、強勢圍觀!
來自復旦、谷歌和Nuro,Inc提出一種深度BA方法來實現(xiàn)SFM重建,通過設計一種基于物理原理的架構(gòu)來實現(xiàn)優(yōu)化過程中的結(jié)構(gòu)約束。架構(gòu)中包含了兩個cost volum來估計深度和位置,迭代的進行改進。其中不僅加入圖像度量來保證輸入間的連續(xù)性,同時還添加了幾何連續(xù)性保證不同視角間的深度一致。位置和深度的顯式約束結(jié)合了BA和深度學習的共同優(yōu)勢,實現(xiàn)了非常好重建性能。
來自牛津大學、百度和港中文的研究人員提出了一種具有域不變性的立體匹配網(wǎng)絡,通過域歸一化的手段來正則化學習到的分布,同時利用可訓練的非局域圖濾波器抽取結(jié)構(gòu)和幾何特征進一步增強域不變性的的泛化性。下圖顯示了域歸一化和文中使用的圖結(jié)構(gòu)。
來自康奈爾和浙大的研究人員提出了一種弱監(jiān)督的特征描述子學習方法,基于圖像和相機間的相對位置來進行監(jiān)督。為此采用了包含極線約束的損失函數(shù)和完全可差分的高效模型架構(gòu)。由于脫離了逐像素約束的限制,這種方法可以在更為廣泛的數(shù)據(jù)集上訓練得到更無偏更通用的描述子。下圖顯示了僅僅依賴相機位置的極線約束訓練過程(相同顏色對應點和極線):
下圖則是極線約束的具體示意圖:
可差分層和由粗到細的模塊結(jié)構(gòu):
來自清華、慕尼黑理工和谷歌的研究人員提出的自監(jiān)督單目6D位姿估計,消除了對于標注數(shù)據(jù)的需求。研究人員首先在合成的RGB數(shù)據(jù)集上進行訓練,隨后利用大量非標記數(shù)據(jù)和神經(jīng)渲染方法來改進訓練結(jié)果。
下圖展示了完整的訓練架構(gòu):
谷歌的研究人員針對深度估計領域提出了雙相機雙像素的估計方法,獲得了具有邊緣感知在遮擋情況下精度更高的深度結(jié)果。通過大垂直極限的雙相機和小水平基線的雙像素緩解了孔徑問題和遮擋問題。這篇文章使用了新穎的架構(gòu)融合雙目立體視覺和雙像素立體視覺,克服了單純立體視覺在遮擋、重復紋理、邊緣誤差方面的劣勢。

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 AI 眼鏡讓百萬 APP「集體失業(yè)」?
- 2 大廠紛紛入局,百度、阿里、字節(jié)搶奪Agent話語權
- 3 深度報告|中國AI產(chǎn)業(yè)正在崛起成全球力量,市場潛力和關鍵挑戰(zhàn)有哪些?
- 4 上海跑出80億超級獨角獸:獲上市公司戰(zhàn)投,干人形機器人
- 5 國家數(shù)據(jù)局局長劉烈宏調(diào)研格創(chuàng)東智
- 6 下一代入口之戰(zhàn):大廠為何紛紛押注智能體?
- 7 百億AI芯片訂單,瘋狂傾銷中東?
- 8 Robotaxi新消息密集釋放,量產(chǎn)元年誰在領跑?
- 9 一文看懂視覺語言動作模型(VLA)及其應用
- 10 格斗大賽出圈!人形機器人致命短板曝光:頭腦過于簡單