摘要:為了從單張RGB圖像估計出相機的位姿信息,提出了一種深度編解碼雙路卷積神經網絡(CNN),提升了視覺自定位的精度。首先,使用編碼器從輸入圖像中提取高維特征;然后,使用解碼器提升特征的空間分辨率;最后,通過多尺度位姿預測器輸出位姿參數。由于位置和姿態的特性不同,網絡從解碼器開始采用雙路結構,對位置和姿態分別進行處理,并且在編解碼之間增加跳躍連接以保持空間信息。實驗結果表明:所提網絡的精度與目前同類型算法相比有明顯提升,其中相機姿態角度精度有較大提升。
注:因版權方要求,不能公開全文,如需全文,請咨詢雜志社