本發明專利技術涉及動物實時跟蹤定位領域,具體涉及一種多目標場景下的動物實時跟蹤定位方法及計算機裝置,提高了動物實時跟蹤定位的精確性。本發明專利技術通過將處理后的原始圖片首先送入YOLOv11?EMA目標檢測模型,得到一個含有目標檢測框的圖片,通過ROI多感知注意力的方法,將僅含有目標檢測框的部分送入SegFormer?Tiny模型,將目標檢測框中的目標進行精準的實例分割,為每個分割后的對象分配唯一的特征向量作為識別標識,該特征向量與動物個體相互匹配。在后續的目標檢測中,一旦檢測到符合特征向量的目標則進行識別追蹤并計數,當目標從視野中消失時則停止追蹤,實現了動物的實時追蹤與定位。本發明專利技術適用于動物實時跟蹤定位。
【技術實現步驟摘要】
本專利技術涉及動物實時跟蹤定位領域,具體涉及一種多目標場景下的動物實時跟蹤定位方法及計算機裝置。
技術介紹
1、我國養殖業主要依靠傳統的人工方式飼養,在高密度養殖中難以實現個體的精準定位,不易掌握家畜的具體生長情況,影響經濟效益。
2、目前主要的方法為:采用人工觀測或電子耳標結合養殖場布設監控設備進行觀察,如申請號202311003560.8公開的一種散養家畜群跟蹤定位方法和裝置,該裝置包括電子耳標、項圈裝置。家畜群包括領頭家畜組;項圈裝置佩戴在領頭家畜組的家畜身上;電子耳標佩戴在家畜群里所有家畜身上。首先,通過定位模塊獲取項圈裝置的準確位置,其次,通過有源rfid獲取家畜群里所有家畜與項圈裝置之間的距離,通過通信模塊將位置信息和所有家畜的距離信息發送至應用服務器上,通過分析處理獲得家畜群的跟蹤定位信息,推送至放牧人員的手機應用上進行展示,由此,提高散養家畜群的跟蹤定位能力。
3、但目前的方案存在以下弊端:采用人工觀測效率低下,容易錯計漏計;電子耳標的初始投資成本相對較高,并且操作過程中容易丟失損壞,難以及時發現患病家畜,導致疾病大面積傳播。
技術實現思路
1、本專利技術的目的在于克服現有技術的缺點,提供一種多目標場景下的動物實時跟蹤定位方法及計算機裝置,提高了動物實時跟蹤定位的精確性。
2、本專利技術采取如下技術方案實現上述目的,第一方面,本專利技術提供一種多目標場景下的動物實時跟蹤定位方法,包括:
3、s1、采集實時數據;
4、s2、對采集的數據進行預處理;
5、s3、構建yolov11-ema目標檢測模型,將處理后的數據輸入yolov11-ema目標檢測模型,獲得一個含有目標檢測框的目標圖像;
6、s4、將含有目標檢測框的目標圖像輸入segformer-tiny模型,對目標檢測框中的目標圖像進行分割;
7、s5、為每個分割后的目標圖像分配唯一的特征向量作為識別標識,該特征向量與動物個體相互匹配,在后續的目標檢測中,一旦檢測到符合該特征向量的目標則進行識別追蹤并計數。
8、進一步的是,步驟s3具體包括:
9、將ema模塊同時添加到yolov11目標檢測模型的backbone的尾部與neck的尾部,得到yolov11-ema目標檢測模型;
10、將處理后的數據進行特征分組,并將輸入特征圖的通道維度分成g個小組,每個小組包含c/g個通道,分組方式如下:
11、,其中x是輸入特征圖,xi,i=1,2,...,g-1,表示第i個通道組;
12、將分組后的數據輸入并行子網絡,將分組后的數據輸入并行子網絡,ema模塊通過兩個并行分支對特征進行處理,1x1卷積分支,將x的每組特征映射到空間中,保留局部上下文關系,方式如下:
13、,表示對輸入特征圖x進行1x1卷積操作;
14、3x3卷積分支,捕獲局部和多尺度特征,方式如下:
15、,表示對輸入特征圖x進行3x3卷積操作;
16、全局平均池化分為水平方向和豎直方向兩個方向的全局平均池化,分別捕捉水平和豎直方向的全局特征;
17、,;
18、其中,表示第個通道的第個位置的特征值,、分別表示沿寬度和高度方向的全局平均池化結果,h表示特征圖的高度,w表示特征圖的寬度;
19、然后ema模塊將兩個并行分支的輸出特征通過矩陣點積操作進行聚合,以捕獲像素級的成對關系,實現特征聚合和交互,方式如下:
20、;
21、;
22、;
23、;
24、其中,、以及表示中間變量,和是經過自適應平均池化和softmax歸一化后的空間注意力圖,和是對應的特征圖的變換,表示計算特征圖的矩陣乘積,weights是最終計算得到的權重圖,b表示批量大小,表示當前批次中樣本的數量,是特征分組的數量,用于減少計算復雜度,表示將批量和分組結合,表示調整數組形狀的操作,最后ema模塊將得到的權重圖用于原始張量,并重構為原始輸入形狀。
25、進一步的是,segformer-tiny模型包含一個多層感知機解碼器和一個transformer編碼器;
26、解碼器的處理步驟如下:
27、將多級特征fi通過多層感知機層統一通道維度;
28、將多級特征上采樣到1/4的分辨率并拼接在一起;
29、使用多層感知機層融合拼接的特征,將融合的特征預測為分割掩碼;
30、ema模塊自注意力的計算公式為:
31、;
32、其中分別是查詢、鍵和值,是每個頭的維度,t表示轉置操作,是的轉置矩陣表示激活函數。
33、進一步的是,segformer-tiny模型采用了模型剪枝和量化操作,剪枝移除網絡中冗余的參數和連接,減少segformer-tiny模型的大小和計算量,方式如下:
34、設置權重矩陣為,剪枝后的權重矩陣為,則:
35、,其中表示剪枝閾值;
36、通過量化將浮點型權重和激活值進行壓縮,減少segformer-tiny模型的存儲和計算需求,方式如下:
37、,表示量化后的權重,round表示四舍五入操作,
s是縮放因子,為浮點型權重。
38、進一步的是,步驟s2具體包括:采用mosaic或mixup進行數據預處理。
39、第二方面,本專利技術提供一種計算機裝置,包括存儲器,所述存儲器存儲有程序指令,所述程序指令運行時,執行上述所述的多目標場景下的動物實時跟蹤定位方法。
40、本專利技術的有益效果為:
41、本專利技術將處理后的原始圖片首先送入yolov11-ema目標檢測模型,得到一個含有目標檢測框的圖片,通過roi多感知注意力的方法,將僅含有目標檢測框的部分送入自改進segformer語義分割模型,將目標檢測框中的目標進行精準的實例分割,為每個分割后的對象分配唯一的特征向量作為識別標識,該特征向量與動物個體相互匹配。在后續的目標檢測中,一旦檢測到符合特征向量的目標則進行識別追蹤并計數,當目標從視野中消失時則停止追蹤,實現了動物的實時追蹤與定位。提高了動物實時跟蹤定位的精確性。
本文檔來自技高網...
【技術保護點】
1.一種多目標場景下的動物實時跟蹤定位方法,其特征在于,包括:
2.根據權利要求1所述的多目標場景下的動物實時跟蹤定位方法,其特征在于,步驟S3具體包括:
3.根據權利要求1所述的多目標場景下的動物實時跟蹤定位方法,其特征在于,SegFormer-Tiny模型包含一個多層感知機解碼器;
4.根據權利要求1所述的多目標場景下的動物實時跟蹤定位方法,其特征在于,SegFormer-Tiny模型采用了模型剪枝和量化操作,剪枝移除網絡中冗余的參數和連接,減少SegFormer-Tiny模型的大小和計算量,方式如下:
5.根據權利要求1所述的多目標場景下的動物實時跟蹤定位方法,其特征在于,步驟S2具體包括:采用mosaic或mixup進行數據預處理。
6.一種計算機裝置,包括存儲器,所述存儲器存儲有程序指令,其特征在于,所述程序指令運行時,執行如權利要求1-5任意一項所述的多目標場景下的動物實時跟蹤定位方法。
【技術特征摘要】
1.一種多目標場景下的動物實時跟蹤定位方法,其特征在于,包括:
2.根據權利要求1所述的多目標場景下的動物實時跟蹤定位方法,其特征在于,步驟s3具體包括:
3.根據權利要求1所述的多目標場景下的動物實時跟蹤定位方法,其特征在于,segformer-tiny模型包含一個多層感知機解碼器;
4.根據權利要求1所述的多目標場景下的動物實時跟蹤定位方法,其特征在于,segformer-tiny模型采用了模...
【專利技術屬性】
技術研發人員:陳之曦,井智,胡笛,毛麗若,蔡淑欣,彭浩祥,
申請(專利權)人:四川農業大學,
類型:發明
國別省市:
還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。