System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 国产久热精品无码激情,亚洲中文无码线在线观看,蜜桃AV无码免费看永久
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    提高小目標識別率的基于YOLOv8的模型檢測方法和系統技術方案

    技術編號:44143805 閱讀:13 留言:0更新日期:2025-01-29 10:19
    本發明專利技術公開提供了一種提高小目標識別率的基于YOLOv8的模型檢測方法和系統,該方法包括如下步驟:步驟S1:構建用于檢測數據集;步驟S2:基于YOLOv8模型框架,通過增加低層特征信息輸出分支LLFO,由backbone特征圖2x和4x直接與特征融合后的8x特征圖融合后給出特征圖,從而構建改進模型YOLOv8?LLFO架構;步驟S3:通過檢測數據集,基于YOLOv8模型,訓練YOLOv8原始架構、融合YOLOv9PGI部分的YOLOv8?PGI架構以及步驟S2構建的YOLOv8?LLFO架構;步驟S4:對訓練結果進行評估。本發明專利技術通過低層特征信息的輸出分支(LLFO)能夠顯著增加小目標的識別率;而且低層特征信息的輸出分支(LLFO)能夠即插即用,對于基于經典檢測COCO數據集的檢測模型都能適配。

    【技術實現步驟摘要】

    本專利技術涉及深度學習,更具體地,涉及一種提高小目標識別率的基于yolov8的模型檢測方法和系統。


    技術介紹

    1、當前深度學習里的目標檢測手段往往是基于公開數據集coco來評測的。對于coco數據集,圖片分辨率一般在寬800高600左右,識別目標大小具體分為三類:像素面積小于322的小目標,像素面積介于322和962之間的中等目標,以及大于962的大目標。但是在某些特定數據集中,目標的像素面積遠小于322,此時依靠coco數據集作為評估手段的檢測模型一般效果都有限,所以小目標檢測成為了目標檢測領域的難點。本專利技術通過給模型適當地增加了部分分支,使得對于小目標檢測有很大的改善。

    2、如圖1所示,為了提高對低層特征信息的利用,yolov8模型通過pafpn架構來融合各特征層的信息。然而該方案僅僅針對coco數據集進行評測;并且沒有考慮更低層次特征的利用。

    3、如圖2所示,為了進一步利用更底層的信息,解決深度神經網絡中信息丟失所帶來的挑戰,yolov9模型通過可擴展的可編程梯度信息(programmable?gradientinformation,pgi)模塊增加一個輔助訓練的分支來提高對輸入信息的利用。此架構的右邊部分與yolov8類似,左邊是新增的輔助訓練分支pgi,由輸入圖像經過backbonenet得到不同倍數的下采樣特征圖,然后8x特征圖與右邊部分的8x/16x/32x特征圖拼接、卷積融合,16x特征圖與右邊部分的16x/32x特征圖拼接、卷積融合,32x特征圖與右邊部分的32x特征圖拼接、卷積融合。然后再經過headnet輸出。然而該方案僅僅針對coco數據集進行評測;該方案只能有限利用低層信息;而且該方案由于增加了輔助訓練分支導致訓練時長和顯存占用的增加。


    技術實現思路

    1、本專利技術針對由于低層特征信息的缺失導致小目標檢測效果不佳的問題,提出了一種提高小目標識別率的基于yolov8的模型檢測方法和系統,本專利技術通過低層特征信息的輸出分支(llfo)能夠顯著增加小目標的識別率;而且低層特征信息的輸出分支(llfo)能夠即插即用,對于基于經典檢測coco數據集的檢測模型都能適配。

    2、為了達到上述目的,本專利技術的技術方案提供了一種提高小目標識別率的模型檢測方法,其包括如下步驟:步驟s1:構建檢測數據集;步驟s2:基于yolov8模型框架,通過增加低層特征信息輸出分支llfo,由backbone特征圖2x和4x直接與特征融合后的8x特征圖融合后給出特征圖,從而構建改進模型yolov8-llfo架構;步驟s3:通過檢測數據集,基于yolov8模型,訓練yolov8原始架構、融合yolov9?pgi部分的yolov8-pgi架構以及步驟s2構建的yolov8-llfo架構;步驟s4:對訓練結果進行評估。

    3、進一步地,在步驟s2中,4x特征圖經過卷積變化與特征融合后的8x特征圖拼接到一起,再經過卷積變化輸出到head部分,2x特征圖同樣經過卷積變化與特征融合后的4x特征圖拼接到一起,再經過卷積變化輸出到head部分。

    4、進一步地,在步驟s2中,yolov8模型框架包括三部分:backbone為cspdarknet結構,neck為pafpn變異體,head為anchor?free+decoupled?head設計;并且通過增加低層特征信息輸出分支llfo,輸出五個特征圖。

    5、進一步地,在步驟s1中,檢測數據集的圖片分辨率有兩種:1920*1080,1080*800;在寬800高600左右,目標大小分布為:50%的目標像素面積小于152,75%的目標像素面積小于252,95%的目標像素面積小于602。

    6、進一步地,在步驟s4中,訓練評估結果由目標檢測評估指標map50給出,并且評估模型推理時的顯存占用和延時。

    7、本專利技術的技術方案還提供了一種提高小目標識別率的模型檢測系統,其包括如下模塊:數據集構建模塊,構建小目標檢測數據集;改進模型構建模塊,基于yolov8模型框架,通過增加低層特征信息輸出分支llfo,由backbone特征圖2x和4x直接與特征融合后的8x特征圖融合后給出特征圖,從而構建改進模型yolov8-llfo架構;訓練模塊,通過檢測數據集,基于yolov8模型,訓練yolov8原始架構、融合yolov9?pgi部分的yolov8-pgi架構以及由改進模型構建模塊構建的yolov8-llfo架構;評估模塊,對訓練結果進行評估。

    8、進一步地,在通過改進模型構建模塊構建改進模型時,4x特征圖經過卷積變化與特征融合后的8x特征圖拼接到一起,再經過卷積變化輸出到head部分,2x特征圖同樣經過卷積變化與特征融合后的4x特征圖拼接到一起,再經過卷積變化輸出到head部分。

    9、進一步地,yolov8模型框架包括三部分:backbone為cspdarknet結構,neck為pafpn變異體,head為anchor?free+decoupled?head設計;并且通過增加低層特征信息輸出分支llfo,輸出五個特征圖。

    10、進一步地,在數據集構建模塊構建小目標檢測數據時,檢測數據集的圖片分辨率有兩種:1920*1080,1080*800;在寬800高600左右,目標大小分布為:50%的目標像素面積小于152,75%的目標像素面積小于252,95%的目標像素面積小于602。

    11、進一步地,在評估模塊進行評估時,訓練評估結果由目標檢測評估指標map50給出,并且評估模型推理時的顯存占用和延時。

    本文檔來自技高網...

    【技術保護點】

    1.一種提高小目標識別率的模型檢測方法,其特征在于,包括如下步驟:

    2.根據權利要求1所述的方法,其特征在于,在步驟S2中,4x特征圖經過卷積變化與特征融合后的8x特征圖拼接到一起,再經過卷積變化輸出到Head部分,2x特征圖同樣經過卷積變化與特征融合后的4x特征圖拼接到一起,再經過卷積變化輸出到Head部分。

    3.根據權利要求2所述的方法,其特征在于,在步驟S2中,YOLOv8模型框架包括三部分:Backbone為CSPDarknet結構,Neck為PAFPN變異體,Head為anchor?free+decoupled?head設計;并且通過增加低層特征信息輸出分支LLFO,輸出五個特征圖。

    4.根據權利要求1所述的方法,其特征在于,在步驟S1中,檢測數據集的圖片分辨率有兩種:1920*1080,1080*800;在寬800高600左右,目標大小分布為:50%的目標像素面積小于152,75%的目標像素面積小于252,95%的目標像素面積小于602。

    5.根據權利要求1所述的方法,其特征在于,在步驟S4中,訓練評估結果由目標檢測評估指標mAP50給出,并且評估模型推理時的顯存占用和延時。

    6.一種提高小目標識別率的模型檢測系統,其特征在于,包括如下模塊:

    7.根據權利要求6所述的系統,其特征在于,在通過改進模型構建模塊構建改進模型時,4x特征圖經過卷積變化與特征融合后的8x特征圖拼接到一起,再經過卷積變化輸出到Head部分,2x特征圖同樣經過卷積變化與特征融合后的4x特征圖拼接到一起,再經過卷積變化輸出到Head部分。

    8.根據權利要求7所述的系統,其特征在于,YOLOv8模型框架包括三部分:Backbone為CSPDarknet結構,Neck為PAFPN變異體,Head為anchor?free+decoupled?head設計;并且通過增加低層特征信息輸出分支LLFO,輸出五個特征圖。

    9.根據權利要求5所述的系統,其特征在于,在數據集構建模塊構建檢測數據時,檢測數據集的圖片分辨率有兩種:1920*1080,1080*800;在寬800高600左右,目標大小分布為:50%的目標像素面積小于152,75%的目標像素面積小于252,95%的目標像素面積小于602。

    10.根據權利要求9所述的系統,其特征在于,在評估模塊進行評估時,訓練評估結果由目標檢測評估指標mAP50給出,并且評估模型推理時的顯存占用和延時。

    ...

    【技術特征摘要】

    1.一種提高小目標識別率的模型檢測方法,其特征在于,包括如下步驟:

    2.根據權利要求1所述的方法,其特征在于,在步驟s2中,4x特征圖經過卷積變化與特征融合后的8x特征圖拼接到一起,再經過卷積變化輸出到head部分,2x特征圖同樣經過卷積變化與特征融合后的4x特征圖拼接到一起,再經過卷積變化輸出到head部分。

    3.根據權利要求2所述的方法,其特征在于,在步驟s2中,yolov8模型框架包括三部分:backbone為cspdarknet結構,neck為pafpn變異體,head為anchor?free+decoupled?head設計;并且通過增加低層特征信息輸出分支llfo,輸出五個特征圖。

    4.根據權利要求1所述的方法,其特征在于,在步驟s1中,檢測數據集的圖片分辨率有兩種:1920*1080,1080*800;在寬800高600左右,目標大小分布為:50%的目標像素面積小于152,75%的目標像素面積小于252,95%的目標像素面積小于602。

    5.根據權利要求1所述的方法,其特征在于,在步驟s4中,訓練評估結果由目標檢測評估指標map50給出,并且評估模型推理時的顯存占用和延時。

    6.一種提高...

    【專利技術屬性】
    技術研發人員:何弢,廖文龍周海進,彭湃,
    申請(專利權)人:酷哇科技有限公司,
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 精品久久久久久无码人妻中文字幕 | 97性无码区免费| 亚洲AV无码久久精品蜜桃| 97精品人妻系列无码人妻| 无码毛片一区二区三区视频免费播放 | 777爽死你无码免费看一二区| 精品韩国亚洲av无码不卡区| 蜜桃无码一区二区三区| 国产在线无码精品电影网| 无码无套少妇毛多18PXXXX| 无码中文字幕乱在线观看| HEYZO无码综合国产精品| 久久人妻无码一区二区| 精品无码久久久久久午夜| 中文字幕乱妇无码AV在线| 免费无遮挡无码永久在线观看视频| 人妻中文字系列无码专区| 亚洲级αV无码毛片久久精品| 亚洲乱亚洲乱少妇无码| 日本无码一区二区三区白峰美 | 高清无码午夜福利在线观看| 18禁超污无遮挡无码免费网站| 天堂无码久久综合东京热| 亚洲日韩精品无码专区加勒比☆| 久久精品中文字幕无码| 国产在线无码一区二区三区视频| 台湾无码AV一区二区三区| 麻豆人妻少妇精品无码专区| 久久亚洲精品成人无码| 色综合99久久久无码国产精品| 一本无码人妻在中文字幕免费 | 免费无码午夜福利片 | 久久老子午夜精品无码怎么打| 国产成人无码精品久久久性色 | 亚洲aⅴ无码专区在线观看春色| 制服在线无码专区| 亚洲日韩一区二区一无码 | 亚洲AV无码一区二三区| 国产精品午夜无码体验区| 尤物永久免费AV无码网站| 日韩A无码AV一区二区三区|