System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技術(shù)實(shí)現(xiàn)步驟摘要】
本專利技術(shù)涉及計(jì)算機(jī)視覺和行人檢測,具體涉及基于改進(jìn)yolov10n和deepsort的景區(qū)行人檢測、跟蹤、計(jì)數(shù)系統(tǒng)。
技術(shù)介紹
1、景區(qū)行人計(jì)數(shù)研究是推動景區(qū)智能化管理的重要技術(shù)手段,對提升游客體驗(yàn)、優(yōu)化景區(qū)資源配置、保障安全等方面具有深遠(yuǎn)的影響。通過精確的行人計(jì)數(shù)技術(shù),管理者可以實(shí)時(shí)掌握景區(qū)內(nèi)的客流動態(tài),合理安排安保人員、清潔服務(wù)和游客引導(dǎo),同時(shí)保障景區(qū)的行人安全,為景區(qū)規(guī)劃和運(yùn)營決策提供可靠的數(shù)據(jù)支持。這種數(shù)據(jù)驅(qū)動的管理方式不僅可以提高景區(qū)的運(yùn)營效率,還能為經(jīng)濟(jì)效益的提升提供依據(jù),進(jìn)而促進(jìn)景區(qū)的長期繁榮與穩(wěn)定發(fā)展。景區(qū)中的行人可能因服飾、姿態(tài)、角度以及天氣、光照等外部條件的變化而難以準(zhǔn)確檢測,傳統(tǒng)檢測方法在面對這些變化時(shí)往往表現(xiàn)出較低的魯棒性。隨著計(jì)算機(jī)硬件性能的快速發(fā)展,基于深度學(xué)習(xí)的人工智能技術(shù)在行人檢測領(lǐng)域取得了顯著進(jìn)展。深度學(xué)習(xí)模型能夠自動從海量數(shù)據(jù)中提取高層次特征,擺脫了傳統(tǒng)方法對手工設(shè)計(jì)特征的依賴,更好地適應(yīng)了景區(qū)中多樣化、復(fù)雜的行人行為和環(huán)境變化。深度學(xué)習(xí)模型通過在大量不同場景下的訓(xùn)練,能夠自動學(xué)習(xí)如何分辨行人與背景,具備更強(qiáng)的適應(yīng)能力和檢測精度。這些新技術(shù)的應(yīng)用為景區(qū)智能化管理提供了更高效、精準(zhǔn)的工具,對提升景區(qū)整體管理水平、保障景區(qū)行人安全、促進(jìn)旅游業(yè)的持續(xù)繁榮具有重要意義。
2、在目前的深度學(xué)習(xí)中,yolov10n是yolo系列的最新一代物體檢測模型,延續(xù)了該系列在實(shí)時(shí)檢測方面的優(yōu)越性。盡管yolov10n檢測效果好,但是在復(fù)雜場景中識別行人時(shí)仍存在一些問題。例如景區(qū)行人計(jì)數(shù)不僅要處理復(fù)雜的
技術(shù)實(shí)現(xiàn)思路
1、針對上述問題,本專利技術(shù)公開了一種基于改進(jìn)yolov10n和deepsort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),本專利技術(shù)將改進(jìn)的yolov10n模型和改進(jìn)的deepsort多目標(biāo)跟蹤算法進(jìn)行融合,其在保證行人檢測準(zhǔn)確率的前提下,能有效降低模型參數(shù)并且實(shí)現(xiàn)準(zhǔn)確計(jì)數(shù),從而解決因景區(qū)環(huán)境背景復(fù)雜、人群密集,導(dǎo)致的漏檢和誤檢情況。
2、為了實(shí)現(xiàn)上述目的,本專利技術(shù)所采用的技術(shù)方案是,基于改進(jìn)yolov10n和deepsort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),具體按照如下步驟實(shí)施:
3、s1:獲取景區(qū)、商場、街道等行人密集地方的行人圖片,構(gòu)建數(shù)據(jù)集;
4、s2:對數(shù)據(jù)集中的行人圖像進(jìn)行數(shù)據(jù)增強(qiáng),獲得經(jīng)過數(shù)據(jù)增強(qiáng)的數(shù)據(jù)集;
5、s3:構(gòu)建yolov10n行人檢測網(wǎng)絡(luò)模型;
6、s4:對yolov10n模型進(jìn)行改進(jìn),得到改進(jìn)yolov10n模型;
7、s5:使用s2獲得的經(jīng)過數(shù)據(jù)增強(qiáng)的數(shù)據(jù)集對改進(jìn)的yolov10n網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行訓(xùn)練,得到訓(xùn)練好的行人檢測模型;
8、s6:將待檢測的行人圖像送入訓(xùn)練好的yolov10n模型中,得到行人的位置信息和檢測框信息;
9、s7:對deepsort模型進(jìn)行改進(jìn),得到改進(jìn)后的deepsort模型;
10、s8:將s5檢測到的信息送入改進(jìn)的deepsort模型中,得到行人目標(biāo)框的序號;
11、s9:經(jīng)過基于雙凸軌線測算的計(jì)數(shù)算法,得出進(jìn)入和離開的行人數(shù)量;
12、本專利技術(shù)的特征還在于,
13、s1具體為:在正常光照環(huán)境下通過佳能800d相機(jī)獲取行人圖像構(gòu)建數(shù)據(jù)集,將構(gòu)建的數(shù)據(jù)集按照8:1:1的方式劃分為訓(xùn)練集、驗(yàn)證集和測試集,然后對數(shù)據(jù)集中的行人圖像使用makesense在線標(biāo)注工具進(jìn)行精細(xì)的標(biāo)注,若行人圖像中包含行人,則將該行人標(biāo)記為people。
14、s2具體為:將數(shù)據(jù)集中的行人圖像進(jìn)行圖像裁剪、平移、旋轉(zhuǎn)、改變圖像亮度等圖像增強(qiáng)方法,將每個(gè)行人圖像在數(shù)量上進(jìn)行增強(qiáng),將原來一張行人圖像擴(kuò)充到四張。
15、s3具體為:構(gòu)建yolov10n網(wǎng)絡(luò)模型,其整體結(jié)構(gòu)由四部分組成,其以此連接來完成目標(biāo)檢測任務(wù);首先是輸入端包括馬賽克mosaic、數(shù)據(jù)增強(qiáng)和自適應(yīng)錨框計(jì)算等功能;接下來是主干網(wǎng)絡(luò)backbone采用了cspdarknet架構(gòu),由多個(gè)conv、c2f、scdown、sppf等模塊組成,用于提取圖像特征;其次是neck部分,頸部網(wǎng)絡(luò)由特征金字塔網(wǎng)絡(luò)fpn和路徑聚合網(wǎng)絡(luò)pan兩部分組成,用于融合高層與底層的特征;最后是head部分,用于生成目標(biāo)檢測的預(yù)測結(jié)果。
16、s4具體為:在原始yolov10n的主干網(wǎng)絡(luò)backbone中添加基于輕量化動態(tài)卷積dynamic?convolution的注意力特征融合結(jié)構(gòu)dc-ffa,該結(jié)構(gòu)能夠在不增加模型參數(shù)量的前提下,保留淺層信息并將其傳遞到深層,從而增強(qiáng)模型的表征能力,它不僅能夠融合所有特征,還能夠自適應(yīng)地學(xué)習(xí)不同層級特征信息的不同權(quán)重;將dc-ffa結(jié)構(gòu)作為改進(jìn)后模型網(wǎng)絡(luò)結(jié)構(gòu)的第一層,同時(shí)將backbone中最后一層原本的sppf模塊替換為simsppf模塊,simsppf模塊通過簡化操作減少了不必要的計(jì)算復(fù)雜度,優(yōu)化了特征融合過程中的計(jì)算和存儲操作,減輕了網(wǎng)絡(luò)的整體重量,得以減少計(jì)算復(fù)雜度并提升模型的推理速度;最后將neck部分fpn的concat模塊融入重復(fù)加權(quán)雙向特征金字塔網(wǎng)絡(luò)bifpn得到concat_bifpn模塊,允許特征在網(wǎng)絡(luò)中的不同尺度間進(jìn)行雙向流動。
17、s5具體為:將訓(xùn)練集輸入改進(jìn)后的yolov10n模型進(jìn)行訓(xùn)練;并且訓(xùn)練參數(shù)設(shè)置如下:學(xué)習(xí)率=0.001,動量=0.937,輸入圖像尺寸為640×640,訓(xùn)練批次為8,訓(xùn)練輪數(shù)為300輪,使用sgd優(yōu)化器,后10輪關(guān)閉mosaic圖像增強(qiáng)。
18、進(jìn)一步地,通過召回率、精確率和平均精度均值對訓(xùn)練后的所述改進(jìn)yolov10n模型進(jìn)行評價(jià),評價(jià)公式表示分別為:
19、精準(zhǔn)率:
20、召回率:
21、平均精度:ap=∫01p(r)dr
22、平均精度均值:
23、式子中:其中tp代表正確判定為正樣本的個(gè)數(shù),fp代表錯(cuò)誤判定為正樣本的個(gè)數(shù),fn代表錯(cuò)誤判定為負(fù)樣本的個(gè)數(shù),n代表類別總數(shù),ap代表pr曲線所圍成的面積,map代表所有類別ap的均值。
24、s7具體為:首先,設(shè)計(jì)了一種全新的行人重識別網(wǎng)絡(luò)seamnet36,旨在替代原始行人重識別網(wǎng)絡(luò),seamnet36的核心創(chuàng)新在于其結(jié)構(gòu)優(yōu)化,將原本三層的basicblock提升到了5層,能夠更好地捕捉行人外觀的細(xì)微差異,從而提高在復(fù)雜場景中的識別能力。此外,其basicblock集成了seam注意力機(jī)制,使網(wǎng)絡(luò)能夠捕獲每個(gè)像素的上下文外觀信息,進(jìn)一步增強(qiáng)了模型對相似行人的區(qū)分能力。最后,原有的iou匹配策略被替換為更為先進(jìn)的powerful-iou匹配。這一新方法顯著提高了目標(biāo)匹配的準(zhǔn)確性和魯棒性,尤其在部分遮擋和行人密集的場景中,powerful-iou能夠更好地處理復(fù)雜的匹配情況。通過引入更靈活的匹配策略,該方法本文檔來自技高網(wǎng)...
【技術(shù)保護(hù)點(diǎn)】
1.基于YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,具體按照如下步驟實(shí)施:
2.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述S1步驟具體為:在正常光照環(huán)境下通過佳能800D相機(jī)獲取行人圖像構(gòu)建數(shù)據(jù)集,將構(gòu)建的數(shù)據(jù)集按照8:1:1的方式劃分為訓(xùn)練集、驗(yàn)證集和測試集,然后對數(shù)據(jù)集中的行人圖像使用Makesense在線標(biāo)注工具進(jìn)行精細(xì)的標(biāo)注,若行人圖像中包含行人,則將該行人標(biāo)記為person。
3.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述S2步驟具體為:將數(shù)據(jù)集中的行人圖像進(jìn)行圖像裁剪、平移、旋轉(zhuǎn)、改變圖像亮度等圖像增強(qiáng)方法,將每個(gè)行人圖像在數(shù)量上進(jìn)行增強(qiáng),將原來一張行人圖像擴(kuò)充到四張。
4.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述S3步驟具體為:構(gòu)建原始YOLOv10n網(wǎng)絡(luò)模型,其整體結(jié)構(gòu)由四部分組成,其以此連接來完成目標(biāo)檢測任務(wù);首先
5.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述S4步驟具體為:在原始YOLOv10n的主干網(wǎng)絡(luò)Backbone中添加基于輕量化動態(tài)卷積Dynamic?Convolution的注意力特征融合結(jié)構(gòu)DC-FFA,該結(jié)構(gòu)能夠在不增加模型參數(shù)量的前提下,保留淺層信息并將其傳遞到深層,從而增強(qiáng)模型的表征能力,它不僅能夠融合所有特征,還能夠自適應(yīng)地學(xué)習(xí)不同層級特征信息的不同權(quán)重;將DC-FFA結(jié)構(gòu)作為改進(jìn)后模型網(wǎng)絡(luò)結(jié)構(gòu)的第一層,同時(shí)將Backbone中最后一層原本的SPPF模塊替換為SimSPPF模塊,SimSPPF模塊通過簡化操作減少了不必要的計(jì)算復(fù)雜度,優(yōu)化了特征融合過程中的計(jì)算和存儲操作,減輕了網(wǎng)絡(luò)的整體重量,得以減少計(jì)算復(fù)雜度并提升模型的推理速度;最后將Neck部分FPN的Concat模塊融入重復(fù)加權(quán)雙向特征金字塔網(wǎng)絡(luò)BiFPN得到Concat_BiFPN模塊,允許特征在網(wǎng)絡(luò)中的不同尺度間進(jìn)行雙向流動。
6.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述S5步驟具體為:將訓(xùn)練集輸入改進(jìn)后的YOLOv10n模型進(jìn)行訓(xùn)練;并且訓(xùn)練參數(shù)設(shè)置如下:學(xué)習(xí)率=0.001,動量=0.937,輸入圖像尺寸為640×640,訓(xùn)練批次為8,訓(xùn)練輪數(shù)為300輪,使用SGD優(yōu)化器,后10輪關(guān)閉Mosaic圖像增強(qiáng)。
7.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,通過精準(zhǔn)率、召回率和平均精度均值對訓(xùn)練后的所述改進(jìn)YOLOv10n模型進(jìn)行評價(jià),評價(jià)公式分別為:
8.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述S7步驟具體為:首先,設(shè)計(jì)了新的行人重識別網(wǎng)絡(luò)SEAMNet36替換原始ReID網(wǎng)絡(luò),其在原本重識別網(wǎng)絡(luò)的基礎(chǔ)上將殘差層加至五層,且將每層的BasicBlock嵌入自監(jiān)督等變注意力機(jī)制SEAM,提升行人再識別的精度,尤其是在復(fù)雜背景和相似外觀行人中能更好地區(qū)分行人;其次,將原始的IOU匹配替換為Powerful-IOU匹配,提高對目標(biāo)匹配的準(zhǔn)確度和魯棒性,特別是在部分遮擋和行人密集的場景下,匹配效果更好。
9.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述S8步驟具體為:根據(jù)S6中第一幀行人檢測框,創(chuàng)建初始軌跡,并設(shè)定初始ID;使用卡爾曼濾波對下一幀行人檢測框的位置進(jìn)行預(yù)測,得到行人預(yù)測框;對所述下一幀行人檢測框和所述行人預(yù)測框進(jìn)行級聯(lián)匹配和Powerful-IOU匹配,得到匹配結(jié)果;根據(jù)所述匹配結(jié)果對所述ID進(jìn)行更新。
10.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,通過多目標(biāo)跟蹤準(zhǔn)確率MOTA、多目標(biāo)跟蹤精度MOTP和編碼變換次數(shù)IDS等評價(jià)指標(biāo)對訓(xùn)練后的所述改進(jìn)DeepSort模型進(jìn)行評價(jià),評價(jià)公...
【技術(shù)特征摘要】
1.基于yolov10n和deepsort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,具體按照如下步驟實(shí)施:
2.根據(jù)權(quán)利要求1所述的基于改進(jìn)yolov10n和deepsort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述s1步驟具體為:在正常光照環(huán)境下通過佳能800d相機(jī)獲取行人圖像構(gòu)建數(shù)據(jù)集,將構(gòu)建的數(shù)據(jù)集按照8:1:1的方式劃分為訓(xùn)練集、驗(yàn)證集和測試集,然后對數(shù)據(jù)集中的行人圖像使用makesense在線標(biāo)注工具進(jìn)行精細(xì)的標(biāo)注,若行人圖像中包含行人,則將該行人標(biāo)記為person。
3.根據(jù)權(quán)利要求1所述的基于改進(jìn)yolov10n和deepsort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述s2步驟具體為:將數(shù)據(jù)集中的行人圖像進(jìn)行圖像裁剪、平移、旋轉(zhuǎn)、改變圖像亮度等圖像增強(qiáng)方法,將每個(gè)行人圖像在數(shù)量上進(jìn)行增強(qiáng),將原來一張行人圖像擴(kuò)充到四張。
4.根據(jù)權(quán)利要求1所述的基于改進(jìn)yolov10n和deepsort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述s3步驟具體為:構(gòu)建原始yolov10n網(wǎng)絡(luò)模型,其整體結(jié)構(gòu)由四部分組成,其以此連接來完成目標(biāo)檢測任務(wù);首先是輸入端包括馬賽克mosaic、數(shù)據(jù)增強(qiáng)和自適應(yīng)錨框計(jì)算等功能;接下來是主干網(wǎng)絡(luò)backbone采用了cspdarknet架構(gòu),由多個(gè)conv、c2f、scdown、sppf等模塊組成,用于提取圖像特征;其次是neck部分,頸部網(wǎng)絡(luò)由特征金字塔網(wǎng)絡(luò)fpn和路徑聚合網(wǎng)絡(luò)pan兩部分組成,用于融合高層與底層的特征;最后是head部分,用于生成目標(biāo)檢測的預(yù)測結(jié)果。
5.根據(jù)權(quán)利要求1所述的基于改進(jìn)yolov10n和deepsort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述s4步驟具體為:在原始yolov10n的主干網(wǎng)絡(luò)backbone中添加基于輕量化動態(tài)卷積dynamic?convolution的注意力特征融合結(jié)構(gòu)dc-ffa,該結(jié)構(gòu)能夠在不增加模型參數(shù)量的前提下,保留淺層信息并將其傳遞到深層,從而增強(qiáng)模型的表征能力,它不僅能夠融合所有特征,還能夠自適應(yīng)地學(xué)習(xí)不同層級特征信息的不同權(quán)重;將dc-ffa結(jié)構(gòu)作為改進(jìn)后模型網(wǎng)絡(luò)結(jié)構(gòu)的第一層,同時(shí)將backbone中最后一層原本的sppf模塊替換為simsppf模塊,simsppf模塊通過簡化操作減少了不必要的計(jì)算復(fù)雜度,優(yōu)化了特征融合過程中的計(jì)算和存儲操作,減輕了網(wǎng)絡(luò)的整體重量,得以減少計(jì)算復(fù)雜度并提升模型的推理速度;最后將neck部分fpn的concat模塊融入重復(fù)加權(quán)雙向特征金字塔網(wǎng)絡(luò)bifpn得到concat_bifpn模塊,允許特征...
【專利技術(shù)屬性】
技術(shù)研發(fā)人員:王苗,張小艷,
申請(專利權(quán))人:西安科技大學(xué),
類型:發(fā)明
國別省市:
還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。