System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技術實現步驟摘要】
本專利技術屬于智能導航,具體涉及一種基于多機器人相互觀測的低成本協同定位與建圖方法。
技術介紹
1、隨著智能控制、環境感知和多傳感器融合等自主機器人技術及其交叉研究領域的快速發展,多機器人系統在各個領域的應用越來越廣泛。多機器人協同定位技術是實現多機器人系統自主導航的必要前提,常用的定位方法是依賴機器人所搭載的各種傳感器(如相機、激光雷達等)感知外部環境并確定其自身位置,即同時定位與地圖構建(simultaneous?localization?and?mapping,slam)。當前已有主流slam算法主要針對單個機器人,而在實際應用中,單個機器人往往無法勝任一些復雜的任務,如搜索和救援、基礎設施檢查、家庭服務以及物流和運輸應用等。多機器人協作遠比單個機器人更高效,例如探索大規模未知環境時,多機器人協同slam方案利用多個機器人協同探索未知區域,可以快速收集信息、提高探索速度以及擴大探索范圍。
2、目前多機器人協同建圖方法大多依賴每個機器人實現自身的定位,然后再使用基于特征匹配或位置識別的方法來實現多個機器人之間的相對位姿計算,優化位姿后實現地圖合并,構建全局一致地圖。然而,基于特征匹配或位置識別的多機器人協同建圖方法仍存在很多不足之處,一是這種方法在面臨環境中存在相似度高的場景時,位置識別的錯誤率大大增加,機器人之間的相對位姿計算結果不準確;二是在特征稀少的環境中,機器人很難實現相遇位置識別,從而降低了算法的魯棒性;三是此類方法對傳感器的要求較高,如多線激光雷達等,這會導致傳感器成本增加。
3、現有技術
技術實現思路
1、本專利技術的目的是:鑒于現有技術存在的相對位姿計算不準、部署成本過高、在特征稀少的環境中不可靠等問題,提出一種基于多機器人相互觀測的低成本協同定位與建圖方法,解決了多機器人間位姿協同優化和地圖信息共享的問題,并同時降低了在機器人上部署所需傳感器的成本。
2、本專利技術的技術方案:為了實現上述專利技術目的,根據本專利技術的第一方面,提出一種基于多機器人相互觀測的低成本協同建圖方法,應用于多機器人編隊,編隊中的每個機器人搭載低成本單線激光雷達、相機以及imu(慣性測量單元)或者輪速計等傳感器,多機器人之間通過wifi局域網通信。
3、機器人編隊里的每個機器人聯合單線激光雷達的點云數據和imu姿態角數據、加速度數據實現其自身的位姿估計和局部地圖構建;進而以每個機器人自身關鍵幀位姿為頂點、機器人間相互觀測和其他機器人估計的自身位姿為測量邊,各自構建位姿圖優化模型,然后使用圖優化結果進行閉環檢測,對單機器人的位姿進行進一步優化;在此基礎上,每個機器人將其他觀測到的機器人共享的點云進行位姿變換,然后增量地進行地圖合并,實現多機器人間地圖信息共享,所有機器人均能獨立構建精確的全局多線束點云地圖。
4、本專利技術的一個實施例具體包括如下步驟:
5、步驟1:編隊中每個機器人進行自身的定位并實時構建局部地圖,局部地圖由傳感器的關鍵幀組成;
6、步驟2:編隊中不同機器人相遇時,利用自身搭載的傳感器進行相互觀測,并推算出被觀測機器人相對于自身的相對位姿信息,并將相對位姿信息共享給編隊中其它機器人;
7、步驟3:編隊中的每個機器人以步驟1的自身關鍵幀位姿和步驟2中推算的相對位姿信息為約束,構建位姿圖優化模型,采用非線性優化法求解得到每個機器人自身位姿優化結果,并更新局部地圖中的關鍵幀位姿信息;
8、步驟4:使用步驟3的位姿優化結果,將機器人當前時刻關鍵幀和局部歷史地圖進行回環檢測,如果檢測到回環,則利用回環約束信息構建位姿圖優化模型,進一步優化關鍵幀位姿,并更新局部地圖,如果未檢測到回環,則保持地圖中的關鍵幀位姿不變。
9、優選地,局部歷史地圖范圍是指機器人相對距離1米范圍。
10、步驟5:將步驟4中每個機器人的局部地圖進行地圖合并構建全局地圖,從而實現多機器人間地圖信息共享。
11、在一個可能的實施例中,所述步驟1中,機器人進行自身定位和建圖的方法采用cartographer(建圖算法)算法、gmapping(激光雷達定位與建圖算法)算法中的一種。
12、在一個可能的實施例中,單線激光雷達、相機以及imu或者輪速計傳感器搭載的傳感器包括單線激光雷達、相機、imu或輪速計傳感器。
13、在一個可能的實施例中,使用ros主從機通信機制進行通信,以其中一個機器人為ros(robot?operating?system,機器人操作系統)主機,其他機器人為ros從機,ros主機集中發布消息,提高通信效率;ros主從機架構易于擴展,當增加新的機器人時,只需將其配置為從機,無需對現有系統進行大規模改動。初始化時使用ntp(network?time?protocol,網絡服務時間協議)服務對所有機器人進行時間同步,確保各機器人在分布式系統中具有一致的時間基準,從而避免時間不一致導致的數據不匹配。
14、在一個可能的實施例中,所述步驟2中,當采用單目相機時,編隊中的每個機器人上設置apriltag(april標簽)標簽圖形碼;所述步驟2中,推算被觀測機器人相對于自身的相對位姿信息采用單目相機觀測識別機器人搭載的apriltag標簽圖形碼。
15、在一個可能的實施例中,在所述步驟2中,當采用雙目相機時,所述步驟2中,推算被觀測機器人相對于自身的相對位姿信息利用yolo-v8(目標檢測算法)神經網絡對雙目相機拍攝的圖像進行目標識別。
16、在一個可能的實施例中,所述步驟3中,位姿圖優化模型非線性優化法求解的算法包括高斯-牛頓法、列文伯格-馬夸特法。
17、在一個可能的實施例中,所述步驟4中,檢測回環的方法包括但不限于利用當前關鍵幀點云和局部歷史地圖進行匹配、使用基于雷達點云數據匹配的方法進行閉環檢測、使用基于位姿估計的方法進行閉環檢測。
18、在一個可能的實施例中,所述步驟5中,構建全局點云地圖的方法包括但不限于將其他機器人共享的點云進行位姿變換并增量地進行地圖合并、將點云地圖存儲于增量式k維樹并增量地進行地圖合并。
19、本專利技術的有益技術效果:
20、本專利技術與現有多機器人協同同時定位與建圖方法相比,有如下優點:
21、一是基于特征匹配或位置識本文檔來自技高網...
【技術保護點】
1.一種基于多機器人相互觀測的低成本協同建圖方法,其特征在于,應用于多機器人編隊,編隊中的每個機器人搭載有用于相互視覺識別、以及定位測距的傳感器組合,機器人之間通過無線局域網通信,包括如下步驟:步驟1:編隊中每個機器人進行自身的定位并實時構建局部地圖,局部地圖由關鍵幀位姿組成;步驟2:編隊中不同機器人相遇時,利用自身搭載的傳感器進行相互觀測,并推算出被觀測機器人相對于自身的相對位姿信息,并將相對位姿信息共享給編隊中其它機器人;步驟3:編隊中的每個機器人以步驟1的自身關鍵幀位姿和步驟2中得到的相對位姿信息為約束,構建位姿圖優化模型,采用非線性優化法求解得到每個機器人自身位姿優化結果,并更新局部地圖中的關鍵幀位姿信息;步驟4:使用步驟3的位姿優化結果,將機器人當前時刻關鍵幀和局部歷史地圖進行回環檢測,如果檢測到回環,則利用回環約束信息構建位姿圖優化模型,進一步優化關鍵幀位姿,并更新局部地圖,如果未檢測到回環,則保持地圖中的關鍵幀位姿不變;步驟5:將步驟4中每個機器人的局部地圖進行地圖合并構建全局地圖,從而實現多機器人間地圖信息共享。
2.根據權利要求1所述的一種基于多機器
3.根據權利要求1所述的一種基于多機器人相互觀測的低成本協同建圖方法,其特征在于,編隊中的每個機器人搭載的用于相互視覺識別,以及定位測距的傳感器組合包括單線激光雷達、相機以及IMU或者輪速計傳感器。
4.根據權利要求1所述的一種基于多機器人相互觀測的低成本協同建圖方法,其特征在于,多機器人之間使用ROS主從機通信機制進行通信,以其中一個機器人為ROS主機,其他機器人為ROS從機,初始化時使用NTP服務對所有機器人進行時間同步。
5.根據權利要求3所述的一種基于多機器人相互觀測的低成本協同建圖方法,其特征在于,當采用單目相機時,編隊中的每個機器人上設置AprilTag標簽圖形碼;所述步驟2中,推算被觀測機器人相對于自身的相對位姿信息采用單目相機觀測識別機器人搭載的AprilTag標簽圖形碼。
6.根據權利要求3所述的一種基于多機器人相互觀測的低成本協同建圖方法,其特征在于,當采用雙目相機時,所述步驟2中,推算被觀測機器人相對于自身的相對位姿信息利用目標檢測算法神經網絡對雙目相機拍攝的圖像進行目標識別。
7.根據權利要求1所述的一種基于多機器人相互觀測的低成本協同建圖方法,其特征在于,所述步驟3中,位姿圖優化模型非線性優化法求解的算法包括高斯-牛頓法、列文伯格-馬夸特法。
8.根據權利要求1所述的一種基于多機器人相互觀測的低成本協同建圖方法,其特征在于,所述步驟4中,檢測回環的方法包括但不限于利用當前關鍵幀點云和局部歷史地圖進行匹配、使用基于雷達點云數據匹配的方法進行閉環檢測、使用基于位姿估計的方法進行閉環檢測。
9.根據權利要求1所述的一種基于多機器人相互觀測的低成本協同建圖方法,其特征在于,所述步驟5中,構建全局點云地圖的方法包括將其他機器人共享的點云進行位姿變換并增量地進行地圖合并。
...【技術特征摘要】
1.一種基于多機器人相互觀測的低成本協同建圖方法,其特征在于,應用于多機器人編隊,編隊中的每個機器人搭載有用于相互視覺識別、以及定位測距的傳感器組合,機器人之間通過無線局域網通信,包括如下步驟:步驟1:編隊中每個機器人進行自身的定位并實時構建局部地圖,局部地圖由關鍵幀位姿組成;步驟2:編隊中不同機器人相遇時,利用自身搭載的傳感器進行相互觀測,并推算出被觀測機器人相對于自身的相對位姿信息,并將相對位姿信息共享給編隊中其它機器人;步驟3:編隊中的每個機器人以步驟1的自身關鍵幀位姿和步驟2中得到的相對位姿信息為約束,構建位姿圖優化模型,采用非線性優化法求解得到每個機器人自身位姿優化結果,并更新局部地圖中的關鍵幀位姿信息;步驟4:使用步驟3的位姿優化結果,將機器人當前時刻關鍵幀和局部歷史地圖進行回環檢測,如果檢測到回環,則利用回環約束信息構建位姿圖優化模型,進一步優化關鍵幀位姿,并更新局部地圖,如果未檢測到回環,則保持地圖中的關鍵幀位姿不變;步驟5:將步驟4中每個機器人的局部地圖進行地圖合并構建全局地圖,從而實現多機器人間地圖信息共享。
2.根據權利要求1所述的一種基于多機器人相互觀測的低成本協同建圖方法,其特征在于,所述步驟1中,機器人進行自身定位和建圖的方法采用cartographer算法、gmapping算法中的一種。
3.根據權利要求1所述的一種基于多機器人相互觀測的低成本協同建圖方法,其特征在于,編隊中的每個機器人搭載的用于相互視覺識別,以及定位測距的傳感器組合包括單線激光雷達、相機以及imu或者輪速計傳感器。
...
【專利技術屬性】
技術研發人員:楊衛平,楊國梁,韋登峰,高柳,曾進,劉放,李威龍,張璐,
申請(專利權)人:中國航空工業集團公司西安飛行自動控制研究所,
類型:發明
國別省市:
還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。