System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 中文字幕人妻三级中文无码视频 ,无码精品A∨在线观看十八禁,中文字幕av无码无卡免费
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當(dāng)前位置: 首頁 > 專利查詢>重慶理工大學(xué)專利>正文

    基于改進YOLOv5s輕量化模型的密集行人檢測方法技術(shù)

    技術(shù)編號:44196217 閱讀:17 留言:0更新日期:2025-02-06 18:33
    本發(fā)明專利技術(shù)屬于圖像行人檢測技術(shù)領(lǐng)域,具體涉及一種基于改進YOLOv5s輕量化模型的密集行人檢測方法;包括:獲取行人圖像,將行人圖像輸入到改進YOLOv5模型中,得到初始密集行人檢測結(jié)果;根據(jù)初始密集行人檢測結(jié)果對改進YOLOv5模型進行結(jié)構(gòu)化剪枝,得到中間改進YOLOv5模型;根據(jù)初始密集行人檢測結(jié)果計算模型總損失,根據(jù)模型總損失調(diào)整中間改進YOLOv5模型參數(shù),得到訓(xùn)練好的密集行人檢測模型;采用Soft?NMS算法對訓(xùn)練好的密集行人檢測模型的檢測結(jié)果進行篩選,得到最終的密集行人檢測結(jié)果;本發(fā)明專利技術(shù)可以提高識別行人的準(zhǔn)確率,有效的緩解行人之間出現(xiàn)的遮擋問題,可以在資源受限的設(shè)備上運行并且有著不錯的效果。

    【技術(shù)實現(xiàn)步驟摘要】

    本專利技術(shù)屬于圖像行人檢測,具體涉及一種基于改進yolov5s輕量化模型的密集行人檢測方法。


    技術(shù)介紹

    1、行人檢測作為目標(biāo)檢測領(lǐng)域內(nèi)的重要研究內(nèi)容,其在視覺追蹤、行人重識別及行為分析等多個工程
    具有廣泛應(yīng)用;近年來,伴隨深度學(xué)習(xí)技術(shù)的快速發(fā)展,大量相關(guān)的目標(biāo)檢測算法也因此而產(chǎn)生。目標(biāo)檢測器也都達到了不錯的效果,但這些模型中的大多數(shù)都需要過多的計算資源;這就凸顯出對輕量化模型設(shè)計的強烈需求,主要原因是盡管現(xiàn)有算法在追求高檢測精度上取得了顯著成就,卻往往忽視了模型尺寸及其帶來的計算負(fù)擔(dān),而這恰恰是評判算法實際可行性和能否成功應(yīng)用于邊緣計算資源受限設(shè)備的關(guān)鍵因素。

    2、目標(biāo)檢測算法在深度學(xué)習(xí)的框架下,依據(jù)其運作機制可大體分類為兩大流派:兩階段算法與一階段算法。前者以基于區(qū)域的卷積神經(jīng)網(wǎng)絡(luò)為典型,這類算法以高檢測精度著稱,但伴隨而來的是模型規(guī)模與計算復(fù)雜度的顯著增加,這在諸如自動駕駛和智能交通系統(tǒng)的實時應(yīng)用中可能受到限制。相反,一階段檢測算法簡化了檢測流程,直接從輸入圖像中預(yù)測物體位置及其邊界框?qū)傩裕瑢z測任務(wù)轉(zhuǎn)化為回歸問題。這些算法雖然在精確度上可能略遜于兩階段方法,但勝在模型更為精簡,執(zhí)行速度快,因而在工業(yè)界有著廣泛的應(yīng)用實踐。特別是yolo模型,以其極高的檢測速度脫穎而出,相較于其他多數(shù)目標(biāo)檢測技術(shù)展現(xiàn)出幾個數(shù)量級的優(yōu)勢。yolo的核心創(chuàng)新在于其架構(gòu)設(shè)計,該模型對每個預(yù)設(shè)的錨框同時輸出一個物體類別概率和位置偏移量,僅保留那些類別概率超過預(yù)設(shè)閾值的邊界框作為檢測結(jié)果,以此快速且有效地定位圖像中的目標(biāo)對象,從而區(qū)別于依賴復(fù)雜區(qū)域提議的傳統(tǒng)方法。

    3、大部分行人檢測任務(wù)通常在配備高性能圖形處理器(gpu)的平臺上進行測試和實施。然而,與之相比,嵌入式設(shè)備在計算能力上存在顯著差異,無法承載大規(guī)模的卷積運算負(fù)擔(dān),這意味著gpu驅(qū)動的解決方案在資源有限的嵌入式環(huán)境下面臨實施挑戰(zhàn)。所以要保證模型性能的同時又要保證模型可以在資源受限的設(shè)備上使用,這是待解決的一個難題。現(xiàn)有技術(shù)中針對yolo模型系列的諸多改進措施已促成檢測精度的小幅增長,但模型大小的控制問題依舊突出,未能圓滿實現(xiàn)輕量化與高精度的和諧統(tǒng)一。考慮到嵌入式系統(tǒng)與高端服務(wù)器在計算性能上的顯著差異,現(xiàn)實部署中,許多邊緣計算裝置及移動設(shè)備難以滿足前沿深度學(xué)習(xí)模型的資源需求。特別是在人流量大的場合,目標(biāo)間的頻繁重疊加劇了行人識別的難度,降低了檢測精準(zhǔn)度。

    4、綜上所述,繼續(xù)一種專為資源受限設(shè)備設(shè)計的輕量化行人檢測模型,旨在實現(xiàn)在人群密集情況下也能保持高效實時的行人辨識能力。


    技術(shù)實現(xiàn)思路

    1、針對現(xiàn)有技術(shù)存在的不足,本專利技術(shù)提出了一種基于改進yolov5s輕量化模型的密集行人檢測方法,該方法包括:獲取行人圖像并將其輸入到訓(xùn)練好的密集行人檢測模型中進行處理,得到密集行人檢測結(jié)果;

    2、密集行人檢測模型的訓(xùn)練過程包括:

    3、s1:獲取行人圖像,將行人圖像輸入到改進yolov5模型中,得到初始密集行人檢測結(jié)果;

    4、s2:根據(jù)初始密集行人檢測結(jié)果對改進yolov5模型進行結(jié)構(gòu)化剪枝,得到中間改進yolov5模型;

    5、s3:根據(jù)初始密集行人檢測結(jié)果計算模型總損失,根據(jù)模型總損失調(diào)整中間改進yolov5模型參數(shù),得到訓(xùn)練好的密集行人檢測模型;

    6、s4:采用soft-nms算法對訓(xùn)練好的密集行人檢測模型的檢測結(jié)果進行篩選,得到最終的密集行人檢測結(jié)果。

    7、優(yōu)選的,改進yolov5模型包括backbone網(wǎng)絡(luò)、neck網(wǎng)絡(luò)和head網(wǎng)絡(luò);backbone網(wǎng)絡(luò)由2個一維卷積層、相互交替連接的4個c3_mlca層與3個lwwconv層、sppf層組成;neck網(wǎng)絡(luò)包括2個一維卷積層、2個上采樣層、2個lwwconv層、4個c3層和4個concat層;head網(wǎng)絡(luò)包括3個detect層。

    8、進一步的,lwwconv層的計算表達式為:

    9、xavg=conv1×1(avgpool(x))

    10、

    11、flww_max=wtconv1×1(wtconv1×1(maxpool(x)))

    12、flww=softmax(flww_avg+flww_max)·gconvk×k

    13、其中,flww表示lwwconv層輸出,conv1×1表示卷積核大小為1的卷積,wtconv1×1表示卷積核大小為1的wtconv,x表示輸入的特征圖,avgpool表示平均池化,maxpool表示最大池化,表示xavg中第i個像素點,n表示xavg中像素點數(shù)量,bl是第l個可學(xué)習(xí)的視覺碼字,sl是第l個比例因子,l是視覺中心的總數(shù),表示bn層,gconvk×k表示卷積核大小為k的組卷積;xavg、ek、flww_avg、flww_max分別表示第一、第二、第三和第四中間參數(shù)。

    14、優(yōu)選的,模型總損失為分類損失與回歸損失的加權(quán)和;分類損失為:

    15、

    16、其中,vfl(p,q)表示分類損失,q表示二值變量,p表示模型預(yù)測的概率,γ表示曲線弧度控制參數(shù);a表示比例因子;

    17、回歸損失為:

    18、

    19、其中,leiou表示回歸損失,iou表示交并比,b表示預(yù)測框的中心,bgt表示目標(biāo)框中心點,ρ2(b,bgt)表示物體的預(yù)測框和物體目標(biāo)框中心點的坐標(biāo)的歐氏距離的平方,ρ2(w,wgt)表示物體的預(yù)測框和物體目標(biāo)框的寬度差值的平方,w表示預(yù)測框的寬,wgt表示目標(biāo)框的寬,ρ2(h,hgt)表示物體的預(yù)測框和物體目標(biāo)框的高度差值的平方,h表示預(yù)測框的高,hgt表示目標(biāo)框的高,wc表示物體的預(yù)測框和物體目標(biāo)框能夠組成的最小外接矩形的寬度,hc表示物體的預(yù)測框和物體目標(biāo)框能夠組成的最小外接矩形的高度。

    20、優(yōu)選的,對初始密集行人檢測結(jié)果進行篩選的過程包括:計算訓(xùn)練好的密集行人檢測模型的檢測結(jié)果中檢驗框的置信度得分;設(shè)置檢驗框的置信度得分閾值,去除檢驗框置信度得分低于置信度得分閾值的檢驗框,得到最終的密集行人檢測結(jié)果。

    21、進一步的,計算檢驗框置信度得分的公式為:

    22、

    23、其中,sni表示檢驗框的置信度得分,si表示經(jīng)典nms算法輸出的第i個檢測框的得分,iou(m,bi)表示是兩個檢驗框之間的交并比,m表示得分最高的檢測框,bi表示第i個檢驗框,nt表示衰減閾值,α表示高斯懲罰函數(shù)的超參數(shù)。

    24、優(yōu)選的,對中間改進yolov5模型進行結(jié)構(gòu)化剪枝的過程包括:對網(wǎng)絡(luò)參數(shù)進行分組,根據(jù)分組進行模型剪枝;計算剪枝損失,當(dāng)剪枝損失收斂時,得到訓(xùn)練好的密集行人檢測模型。

    25、本專利技術(shù)的有益效果為:

    26、本專利技術(shù)引入了輕量級的卷積lwwconv,該模塊通過引入空間注意力機制來自適應(yīng)地調(diào)整不同空間位置的重要性,同時,其利用組卷積結(jié)構(gòu)將輸入通道分割成若干組,來達到減少模型的參數(shù)和計算量的目的;...

    【技術(shù)保護點】

    1.一種基于改進YOLOv5s輕量化模型的密集行人檢測方法,其特征在于,包括:獲取行人圖像并將其輸入到訓(xùn)練好的密集行人檢測模型中進行處理,得到密集行人檢測結(jié)果;

    2.根據(jù)權(quán)利要求1所述的一種基于改進YOLOv5s輕量化模型的密集行人檢測方法,其特征在于,所述改進YOLOv5模型包括Backbone網(wǎng)絡(luò)、Neck網(wǎng)絡(luò)和Head網(wǎng)絡(luò);Backbone網(wǎng)絡(luò)由2個一維卷積層、相互交替連接的4個C3_MLCA層與3個LWWConv層、SPPF層組成;Neck網(wǎng)絡(luò)包括2個一維卷積層、2個上采樣層、2個LWWConv層、4個C3層和4個Concat層;Head網(wǎng)絡(luò)包括3個Detect層。

    3.根據(jù)權(quán)利要求2所述的一種基于改進YOLOv5s輕量化模型的密集行人檢測方法,其特征在于,LWWConv層的計算表達式為:

    4.根據(jù)權(quán)利要求1所述的一種基于改進YOLOv5s輕量化模型的密集行人檢測方法,其特征在于,所述模型總損失為分類損失與回歸損失的加權(quán)和;分類損失為:

    5.根據(jù)權(quán)利要求1所述的一種基于改進YOLOv5s輕量化模型的密集行人檢測方法,其特征在于,對初始密集行人檢測結(jié)果進行篩選的過程包括:計算訓(xùn)練好的密集行人檢測模型的檢測結(jié)果中檢驗框的置信度得分;設(shè)置檢驗框的置信度得分閾值,去除檢驗框置信度得分低于置信度得分閾值的檢驗框,得到最終的密集行人檢測結(jié)果。

    6.根據(jù)權(quán)利要求5所述的一種基于改進YOLOv5s輕量化模型的密集行人檢測方法,其特征在于,計算檢驗框置信度得分的公式為:

    7.根據(jù)權(quán)利要求1所述的一種基于改進YOLOv5s輕量化模型的密集行人檢測方法,其特征在于,對中間改進YOLOv5模型進行結(jié)構(gòu)化剪枝的過程包括:對網(wǎng)絡(luò)參數(shù)進行分組,根據(jù)分組進行模型剪枝;計算剪枝損失,當(dāng)剪枝損失收斂時,得到訓(xùn)練好的密集行人檢測模型。

    ...

    【技術(shù)特征摘要】

    1.一種基于改進yolov5s輕量化模型的密集行人檢測方法,其特征在于,包括:獲取行人圖像并將其輸入到訓(xùn)練好的密集行人檢測模型中進行處理,得到密集行人檢測結(jié)果;

    2.根據(jù)權(quán)利要求1所述的一種基于改進yolov5s輕量化模型的密集行人檢測方法,其特征在于,所述改進yolov5模型包括backbone網(wǎng)絡(luò)、neck網(wǎng)絡(luò)和head網(wǎng)絡(luò);backbone網(wǎng)絡(luò)由2個一維卷積層、相互交替連接的4個c3_mlca層與3個lwwconv層、sppf層組成;neck網(wǎng)絡(luò)包括2個一維卷積層、2個上采樣層、2個lwwconv層、4個c3層和4個concat層;head網(wǎng)絡(luò)包括3個detect層。

    3.根據(jù)權(quán)利要求2所述的一種基于改進yolov5s輕量化模型的密集行人檢測方法,其特征在于,lwwconv層的計算表達式為:

    4.根據(jù)權(quán)利要求1所述的一種基于改進yolov5s輕量化模...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:吳雪剛劉懋霖
    申請(專利權(quán))人:重慶理工大學(xué)
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲爆乳无码精品AAA片蜜桃| 无码人妻久久一区二区三区免费 | 国产精品爆乳奶水无码视频| 国产精品成人99一区无码| 久久99久久无码毛片一区二区| 国产亚洲AV无码AV男人的天堂| 精品久久久无码人妻中文字幕豆芽| 中文人妻无码一区二区三区| 国产AV无码专区亚洲AV蜜芽| 无码国产福利av私拍| 国产成人无码区免费内射一片色欲| 亚洲色无码国产精品网站可下载| 一本色道无码不卡在线观看| 日韩少妇无码喷潮系列一二三| 永久免费av无码网站韩国毛片| 日韩精品无码一区二区三区AV | 精品无码一区在线观看| 国产AV无码专区亚洲AV琪琪| 国产成人无码免费看视频软件 | 日韩夜夜高潮夜夜爽无码| 日韩乱码人妻无码中文字幕| 国产精品无码久久久久久| 日韩人妻无码精品无码中文字幕| 无码熟妇人妻AV影音先锋| 亚洲精品无码成人片久久不卡| 91无码人妻精品一区二区三区L| 亚洲成A人片在线观看无码不卡 | 国产精品无码无片在线观看| 五月丁香六月综合缴清无码| 67194成是人免费无码| 国产精品无码一区二区在线| 亚洲AV无码AV日韩AV网站| 啊灬啊别停灬用力啊无码视频| 97久久精品无码一区二区| 精品久久久久久无码专区不卡| 中文字幕无码不卡免费视频| 国产精品亚洲专区无码牛牛| 亚洲AV无码专区在线厂| 人妻无码久久久久久久久久久| 国产精品无码专区在线观看| a级毛片免费全部播放无码|