System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技術實現步驟摘要】
本專利技術涉及計算機視覺和機器人,特別是涉及基于單目相機的目標識別定位和測距方法,用于在圖像坐標系與世界坐標系之間建立映射關系,實現目標的定位用于距離測定。
技術介紹
1、目標檢測和定位技術在自動駕駛、機器人導航、增強現實等領域中具有重要應用。隨著深度學習的進步,基于yolo等算法的目標檢測取得了顯著進展,能夠快速且準確地識別目標。然而,將圖像中的二維坐標準確映射到三維世界坐標系,仍然是一個挑戰。
2、目前,常用的定位方法包括相機標定、幾何變換和特征點匹配。傳統的相機標定方法依賴于人工標定板或標注數據,計算復雜且不適合動態環境。特征點匹配方法(如sift、orb等)能夠提高定位精度,但在計算效率和魯棒性上仍有待提高。
3、因此,如何結合目標檢測與特征點提取技術,提升定位精度與計算效率,成為該領域的研究熱點。本專利技術提出了一種基于yolov7與orb特征點結合的目標定位方法,通過優化圖像到世界坐標系的映射,能夠在復雜環境中實現高效、精確的目標定位。
技術實現思路
1、為解決
技術介紹
中涉及的問題,本專利技術提出基于單目相機的目標識別定位和測距方法用于單目相機對拍攝畫面中的目標進行識別與測距定位。
2、本專利技術采用以下的技術方案:基于單目相機的目標識別定位和測距方法包括以下步驟:
3、步驟一:初始化相機和基點位置;
4、步驟二:建立世界坐標系與圖像坐標系的轉換關系p'=k*[r|t]*pw,其中p'為像素坐標,k為相機內參矩
5、步驟三:基點識別與檢測;
6、步驟四:利用三角測量法推導世界坐標系與圖像坐標系的映射關系,基于視角轉換,計算出兩者之間的轉換函數為p''=a(k*[r|t]*p)+b,其中a為變換矩陣,b為偏移向量,p''像素坐標,p為實際坐標;
7、步驟五:目標檢測與識別;
8、步驟六:坐標轉換,確定目標世界坐標系中的實際坐標;
9、步驟七:計算目標距離。
10、與現有技術相比,本專利技術的有益效果:
11、在坐標轉換階段,結合三角測量法與基點位置,利用圖像坐標和世界坐標之間的仿射函數作為映射公式,通過視角轉換與基點的空間位置精確推導匹配關系,顯著提升了二維圖像中目標像素到三維坐標的定位精度和魯棒性。
12、在特征點提取階段,融合了?yolov7?提供的檢測框約束與高分辨率特征圖細粒度特征,結合?cnn?描述符代替傳統二值描述符(brief),顯著提升了目標輪廓像素的特征匹配精度。
13、在坐標映射過程中,結合高分辨率與低分辨率的多尺度特征圖,以特征金字塔網絡?(fpn)?優化多尺度聚合效果。通過限制特征點檢測范圍并結合全局優化策略,生成的目標位置數據更加精準,提升了物體空間位置測量的魯棒性和精度。
本文檔來自技高網...【技術保護點】
1.一種基于單目相機的目標識別定位和測距方法,其特征在于,包含以下步驟:
2.根據權利要求1所述的一種基于單目相機的目標識別定位和測距方法,其特征在于,所述步驟一中初始化相機,設定相機的內參K和外參[R|T];設立監控相機的空間位置O=(X0,?Y0,?Z0),在監控相機周圍設定三個基點PW1,?PW2,?PW3,給定已知的世界坐標PW1=(?X1,Y1,?Z1),PW2=(?X2,?Y2,?Z2),PW3=(?X3,?Y3,?Z3),三個基點在空間中構成一個三角形,確定監控視角的范圍和方向。
3.根據權利要求1所述的一種基于單目相機的目標識別定位和測距方法,其特征在于,所述步驟二中通過監控相機外參[R|T]和相機內參K將世界坐標系中的基點Pw轉換到相機坐標系Pc?=(?Xc?,Yc?,Zc),再投影到圖像坐標系(x,y):P'=K*[R|T]*Pw,得到三個世界坐標系的基點PW1,?PW2,?PW3和它們在圖像坐標系中的對應點P1'=(?x1?,y1)?P2'?=(?x2?,y2)?P3'=(?x3?,y3),通過線性變換,利用齊次坐標和透視變換矩陣,得
4.根據權利要求1所述的一種基于單目相機的目標識別定位和測距方法,其特征在于,所述步驟三中識別圖像中基點的位置,并確定其在圖像坐標系中的像素位置Pi''(?xi'?,yi'),對基點識別時,將ORB和YOLOv7算法進行融合,具體步驟為:
5.根據權利要求4所述的一種基于單目相機的目標識別定位和測距方法,其特征在于,所述步驟四獲取世界坐標與像素坐標之間的函數關系,通過識別得到的基點的像素坐標P1''(?x1?',y1?')P2''(?x2',y2')?P3''(?x3',y3')和圖像坐標P1'(?x1?,y1)?P2'(?x2?,y2)?P3'(?x3?,y3),利用兩個三角形之間的相似變換,得到兩個圖像坐標系之間的映射關系:Pi''=A*Pi'+b,以及世界坐標與圖像坐標轉換函數P'=K*[R|T]*Pw,推出世界坐標與像素坐標之間的映射函數P''=A*(K*[R|T]*P)+b,反推世界坐標的函數P=(P''-b)/[R|T]/K/A。
6.根據權利要求5所述的一種基于單目相機的目標識別定位和測距方法,其特征在于,所述步驟五對圖像內目標進行識別,利用上述步驟中融合后的YOLOv7-ORB算法,對圖像內的待識別目標進行目標識別和特征點提取,確定目標的像素坐標。
7.根據權利要求6所述的一種基于單目相機的目標識別定位和測距方法,其特征在于,所述步驟六將識別得到的像素坐標帶入到轉換函數P=(P’’-b)/[R|T]/K/A中,確定目標的世界坐標。
8.根據權利要求7所述的一種基于單目相機的目標識別定位和測距方法,其特征在于,所述步驟七計算目標距離,通過像素坐標和相機的內參數矩陣來計算目標深度,利用相機投影模型,代入目標的世界坐標和深度坐標,確定目標在世界坐標系中的實際位置以及與相機的距離。
...【技術特征摘要】
1.一種基于單目相機的目標識別定位和測距方法,其特征在于,包含以下步驟:
2.根據權利要求1所述的一種基于單目相機的目標識別定位和測距方法,其特征在于,所述步驟一中初始化相機,設定相機的內參k和外參[r|t];設立監控相機的空間位置o=(x0,?y0,?z0),在監控相機周圍設定三個基點pw1,?pw2,?pw3,給定已知的世界坐標pw1=(?x1,y1,?z1),pw2=(?x2,?y2,?z2),pw3=(?x3,?y3,?z3),三個基點在空間中構成一個三角形,確定監控視角的范圍和方向。
3.根據權利要求1所述的一種基于單目相機的目標識別定位和測距方法,其特征在于,所述步驟二中通過監控相機外參[r|t]和相機內參k將世界坐標系中的基點pw轉換到相機坐標系pc?=(?xc?,yc?,zc),再投影到圖像坐標系(x,y):p'=k*[r|t]*pw,得到三個世界坐標系的基點pw1,?pw2,?pw3和它們在圖像坐標系中的對應點p1'=(?x1?,y1)?p2'?=(?x2?,y2)?p3'=(?x3?,y3),通過線性變換,利用齊次坐標和透視變換矩陣,得到世界坐標系與圖像坐標系之間的變換函數:。
4.根據權利要求1所述的一種基于單目相機的目標識別定位和測距方法,其特征在于,所述步驟三中識別圖像中基點的位置,并確定其在圖像坐標系中的像素位置pi''(?xi'?,yi'),對基點識別時,將orb和yolov7算法進行融合,具體步驟為:
5....
【專利技術屬性】
技術研發人員:張芳瑞,薛雨鑫,劉籽鑠,于復興,
申請(專利權)人:華北理工大學,
類型:發明
國別省市:
還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。