System.ArgumentOutOfRangeException: 索引和長(zhǎng)度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 国产aⅴ无码专区亚洲av麻豆 ,亚洲av永久无码精品秋霞电影秋,色欲香天天综合网无码
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于深度學(xué)習(xí)技術(shù)的AI算法優(yōu)化系統(tǒng)及方法技術(shù)方案

    技術(shù)編號(hào):43118355 閱讀:17 留言:0更新日期:2024-10-26 09:56
    本發(fā)明專利技術(shù)涉及人工智能技術(shù)領(lǐng)域,特別涉及一種基于深度學(xué)習(xí)技術(shù)的AI算法優(yōu)化系統(tǒng)及方法,所述方法應(yīng)用于YOLOv8模型,包括以下步驟:獲取YOLOv8模型;在YOLOv8模型中嵌入空間注意力模塊;改進(jìn)頸部網(wǎng)絡(luò),以增強(qiáng)對(duì)不同尺度特征的提取能力;具體為:采用YOLOF的單輸入單輸出方法,對(duì)特征圖進(jìn)行多尺度的特征增強(qiáng)提取后,進(jìn)行自適應(yīng)特征融合操作;將頸部網(wǎng)絡(luò)的輸出結(jié)果輸入到解耦檢測(cè)頭;訓(xùn)練模型,以獲得可以部署的改進(jìn)后模型。本發(fā)明專利技術(shù)中設(shè)置了自適應(yīng)多尺度離散特征融合模塊,可以增強(qiáng)模型對(duì)不同尺度特征的感知和處理能力。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)涉及人工智能,特別涉及一種基于深度學(xué)習(xí)技術(shù)的ai算法優(yōu)化系統(tǒng)及方法。


    技術(shù)介紹

    1、在目標(biāo)檢測(cè)和圖像處理領(lǐng)域,深度學(xué)習(xí)模型的性能很大程度上取決于其處理多尺度信息的能力。傳統(tǒng)的單輸入單輸出頸部結(jié)構(gòu),如在許多卷積神經(jīng)網(wǎng)絡(luò)(cnn)中所見,因其固定的感受野大小而受到限制。感受野,即網(wǎng)絡(luò)內(nèi)部神經(jīng)元可以接觸到的輸入?yún)^(qū)域,對(duì)于模型感知不同尺度的目標(biāo)至關(guān)重要。固定的感受野意味著模型無法有效處理尺度變化大的目標(biāo),成為目標(biāo)檢測(cè)任務(wù)中的一個(gè)問題。

    2、為了增強(qiáng)特征整合能力,引入了如rfb(receptive?field?block)這樣的模塊。rfb通過使用不同擴(kuò)張率的卷積來擴(kuò)大感受野,從而允許模型捕獲到更多尺度的信息。盡管這種方法在一定程度上提高了模型處理多尺度信息的能力,但它依然需要手動(dòng)設(shè)定不同的擴(kuò)張率,這缺乏自適應(yīng)多尺度處理的能力,無法最優(yōu)化地適應(yīng)各種場(chǎng)景。

    3、最近,yolo(you?only?look?once)v8架構(gòu)在目標(biāo)檢測(cè)領(lǐng)域獲得了廣泛的應(yīng)用,這得益于其高效的檢測(cè)能力和優(yōu)越的性能。yolov8采用的頸部結(jié)構(gòu)設(shè)計(jì)用于整合不同層級(jí)的特征,但在多尺度處理方面仍有改進(jìn)空間。基于這些現(xiàn)有技術(shù)的局限性,本文提出了一種算法優(yōu)化方案,該方案結(jié)合了yolov8的基本架構(gòu)和rfb模塊的設(shè)計(jì)思想,以實(shí)現(xiàn)自適應(yīng)的多尺度特征融合。


    技術(shù)實(shí)現(xiàn)思路

    1、本專利技術(shù)通過設(shè)置自適應(yīng)多尺度離散特征融合模塊(amdfm),增強(qiáng)網(wǎng)絡(luò)對(duì)不同尺度特征的感知和處理能力。

    2、本專利技術(shù)提供的技術(shù)方案為:一種基于深度學(xué)習(xí)技術(shù)的ai算法優(yōu)化方法,所述方法應(yīng)用于目標(biāo)檢測(cè)算法yolov8模型,包括:

    3、獲取yolov8模型;

    4、在yolov8模型中嵌入空間注意力模塊;

    5、改進(jìn)頸部網(wǎng)絡(luò),以增強(qiáng)對(duì)不同尺度特征的提取能力;具體為:

    6、采用yolof的單輸入單輸出方法,對(duì)特征圖進(jìn)行多尺度的特征增強(qiáng)提取后,進(jìn)行自適應(yīng)特征融合操作;

    7、將頸部網(wǎng)絡(luò)的輸出結(jié)果輸入到解耦檢測(cè)頭;

    8、訓(xùn)練模型,以獲得可以部署的改進(jìn)后模型。

    9、優(yōu)選的,所述改進(jìn)頸部網(wǎng)絡(luò)包括如下步驟:

    10、使用多尺度特征融合模塊amdfm的單輸入單輸出結(jié)構(gòu)替換原來的路徑聚合網(wǎng)絡(luò)panet,所述多尺度特征融合模塊amdfm包括:若干個(gè)卷積塊conv、擴(kuò)張混合卷積塊dmconv和自適應(yīng)特征融合模塊asff,若干所述conv用于接收輸入特征圖;

    11、構(gòu)建多個(gè)分支,通過分支上的卷積核為1的conv塊進(jìn)行通道維度變換;

    12、其中一個(gè)分支內(nèi)的conv塊作為殘差連接至輸出,其余分支的conv塊分別與不同擴(kuò)張率的擴(kuò)張混合卷積dmconv連接;

    13、將三個(gè)分支進(jìn)行拼接輸入自適應(yīng)特征融合模塊asff,通過對(duì)不同尺度特征圖賦予可學(xué)習(xí)權(quán)重,將三個(gè)dmconv分支的輸出與權(quán)重相乘后相加完成自適應(yīng)多尺度特征融合;所述asff模塊中包括四個(gè)卷積層。

    14、優(yōu)選的,所述將三個(gè)分支進(jìn)行拼接輸入自適應(yīng)特征融合模塊asff,通過對(duì)不同尺度特征圖賦予可學(xué)習(xí)權(quán)重,將三個(gè)dmconv分支的輸出與權(quán)重相乘后相加完成自適應(yīng)多尺度特征融合,包括:

    15、三個(gè)卷積層用于接收dmconv的輸出,三個(gè)卷積層的輸出經(jīng)過拼接操作整合后輸入到第四個(gè)卷積層,第四個(gè)卷積層的輸出經(jīng)過歸一化指數(shù)函數(shù)softmax函數(shù),生成三個(gè)權(quán)重值;

    16、三個(gè)dmconv的輸出與權(quán)重相乘后相加,以完成自適應(yīng)特征融合。

    17、優(yōu)選的,所述dmconv的結(jié)構(gòu)包括:若干普通卷積層和若干擴(kuò)張卷積層,所述普通卷積層和擴(kuò)張卷積層串聯(lián);通過普通卷積層和擴(kuò)張卷積層串聯(lián)、拼接和通道混洗的操作,獲得離中心點(diǎn)更廣泛區(qū)域特征之間的聯(lián)系,以更好的學(xué)習(xí)圖像中目標(biāo)的空間位置信息和散射特性。

    18、優(yōu)選的,還包括以下步驟:

    19、調(diào)節(jié)擴(kuò)張率,使dmconv可以獲得不同感受野融合的效果,以保證對(duì)輸入的特征圖數(shù)據(jù)利用是連續(xù)的,不會(huì)損失信息;所述dmconv參數(shù)量和計(jì)算量與conv塊一致。

    20、優(yōu)選的,所述對(duì)改進(jìn)后模型進(jìn)行訓(xùn)練,以獲得可以部署的模型,包括:

    21、從數(shù)據(jù)庫中獲取圖像數(shù)據(jù),然后對(duì)圖像數(shù)據(jù)集進(jìn)行預(yù)處理,構(gòu)成數(shù)據(jù)集,將數(shù)據(jù)集以7:2:1的比例隨機(jī)分為訓(xùn)練集、驗(yàn)證集和測(cè)試集;

    22、設(shè)置訓(xùn)練參數(shù);利用訓(xùn)練集對(duì)模型進(jìn)行訓(xùn)練,得到訓(xùn)練后的模型權(quán)重文件;

    23、利用測(cè)試集對(duì)訓(xùn)練后模型進(jìn)行性能評(píng)估,評(píng)價(jià)指標(biāo)包括精確率、召回率、map、參數(shù)量、計(jì)算量、運(yùn)行速度中的一種或者多種;

    24、所述數(shù)據(jù)集中的圖片尺寸包括但不限于:800×800像素、1000×1000像素、1200×1200像素。

    25、優(yōu)選的,所述從數(shù)據(jù)庫中獲取圖像數(shù)據(jù),然后對(duì)圖像數(shù)據(jù)集進(jìn)行預(yù)處理,包括:

    26、采用mosaic數(shù)據(jù)增強(qiáng)方式對(duì)數(shù)據(jù)集中的圖像進(jìn)行預(yù)處理,具體為:對(duì)圖片進(jìn)行隨機(jī)縮放、剪裁、排列的方式進(jìn)行拼接,以增強(qiáng)改進(jìn)后模型的魯棒性。

    27、優(yōu)選的,所述設(shè)置訓(xùn)練參數(shù);利用訓(xùn)練集對(duì)模型進(jìn)行訓(xùn)練,包括:

    28、將訓(xùn)練集中的圖像縮放為640?×?640像素,優(yōu)化器為sgd,動(dòng)量因子大小為0.937,初始學(xué)習(xí)率為0.01,權(quán)重衰減為0.0005,每次實(shí)驗(yàn)進(jìn)行300個(gè)輪次epoch,以達(dá)到模型收斂避免過擬合,保留在驗(yàn)證集上評(píng)價(jià)最好的模型作為最終的訓(xùn)練結(jié)果,檢測(cè)時(shí)iou閾值為0.5,置信度閾值為0.2;

    29、所述準(zhǔn)確率、召回率計(jì)算公式如下:

    30、

    31、,

    32、其中,表示正確檢測(cè)的目標(biāo)個(gè)數(shù),表示錯(cuò)誤檢測(cè)的目標(biāo)個(gè)數(shù),是未檢測(cè)到的目標(biāo)個(gè)數(shù);

    33、平均精確率的計(jì)算公式如下:

    34、

    35、,其中,表示不同置信度閾值iou下的準(zhǔn)確率p-召回率r曲線下的面積;表示各類的平均精確率,表示第個(gè)平均準(zhǔn)確率;

    36、模型參數(shù)量和每秒浮點(diǎn)運(yùn)算次數(shù)定義為:

    37、

    38、,其中表示卷積核大小,和分別表示卷積層輸入和輸出的通道數(shù),和表示輸出特征圖的高和寬;

    39、每秒幀數(shù)用于衡量算法的整體檢測(cè)速度,計(jì)算公式如下:

    40、,其中表示時(shí)間長(zhǎng)度。

    41、本專利技術(shù)還提供一種基于深度學(xué)習(xí)技術(shù)的ai算法優(yōu)化系統(tǒng),包括處理器和與處理器連接的通信模塊、存儲(chǔ)器、圖像采集裝置和顯示器,所述系統(tǒng)用于執(zhí)行所述的一種基于深度學(xué)習(xí)技術(shù)的ai算法優(yōu)化方法。

    42、本專利技術(shù)還提供一種計(jì)算機(jī)可讀存儲(chǔ)介質(zhì),所述計(jì)算機(jī)可讀存儲(chǔ)介質(zhì)存儲(chǔ)有計(jì)算機(jī)程序,所述計(jì)算機(jī)程序被處理器執(zhí)行以實(shí)現(xiàn)所述的一種基于深度學(xué)習(xí)技術(shù)的ai算法優(yōu)化方法。

    43、本專利技術(shù)的有益效果:

    44、1、本專利技術(shù)中,構(gòu)建了多個(gè)分支,通過分支上的卷積核為1的conv塊進(jìn)行通道維度變換,其中一個(gè)分支內(nèi)的conv塊作為殘差連接至輸出,其余分本文檔來自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】

    1.一種基于深度學(xué)習(xí)技術(shù)的AI算法優(yōu)化方法,其特征在于,所述方法應(yīng)用于目標(biāo)檢測(cè)算法YOLOv8模型,包括:

    2.根據(jù)權(quán)利要求1所述的一種基于深度學(xué)習(xí)技術(shù)的AI算法優(yōu)化方法,其特征在于,所述改進(jìn)頸部網(wǎng)絡(luò)包括如下步驟:

    3.根據(jù)權(quán)利要求1所述的一種基于深度學(xué)習(xí)技術(shù)的AI算法優(yōu)化方法,其特征在于,所述將三個(gè)分支進(jìn)行拼接輸入自適應(yīng)特征融合模塊ASFF,通過對(duì)不同尺度特征圖賦予可學(xué)習(xí)權(quán)重,將三個(gè)DMConv分支的輸出與權(quán)重相乘后相加完成自適應(yīng)多尺度特征融合,包括:

    4.根據(jù)權(quán)利要求3所述的一種基于深度學(xué)習(xí)技術(shù)的AI算法優(yōu)化方法,其特征在于,所述DMConv的結(jié)構(gòu)包括:若干普通卷積層和若干擴(kuò)張卷積層,所述普通卷積層和擴(kuò)張卷積層串聯(lián)或并聯(lián);通過普通卷積層和擴(kuò)張卷積層串聯(lián)、拼接和通道混洗的操作,獲得離中心點(diǎn)更廣泛區(qū)域特征之間的聯(lián)系,以更好的學(xué)習(xí)圖像中目標(biāo)的空間位置信息和散射特性。

    5.根據(jù)權(quán)利要求1所述的一種基于深度學(xué)習(xí)技術(shù)的AI算法優(yōu)化方法,其特征在于,還包括以下步驟:

    6.根據(jù)權(quán)利要求1所述的一種基于深度學(xué)習(xí)技術(shù)的AI算法優(yōu)化方法,其特征在于,所述對(duì)改進(jìn)后模型進(jìn)行訓(xùn)練,以獲得可以部署的模型,包括:

    7.根據(jù)權(quán)利要求6所述的一種基于深度學(xué)習(xí)技術(shù)的AI算法優(yōu)化方法,其特征在于,所述從數(shù)據(jù)庫中獲取圖像數(shù)據(jù),然后對(duì)圖像數(shù)據(jù)集進(jìn)行預(yù)處理,包括:

    8.根據(jù)權(quán)利要求6所述的一種基于深度學(xué)習(xí)技術(shù)的AI算法優(yōu)化方法,其特征在于,所述設(shè)置訓(xùn)練參數(shù);利用訓(xùn)練集對(duì)模型進(jìn)行訓(xùn)練,包括:

    9.一種基于深度學(xué)習(xí)技術(shù)的AI算法優(yōu)化系統(tǒng),包括處理器和與處理器連接的通信模塊、存儲(chǔ)器、圖像采集裝置和顯示器,其特征在于,所述系統(tǒng)用于執(zhí)行上述權(quán)利要求1-8中任意一項(xiàng)所述的一種基于深度學(xué)習(xí)技術(shù)的AI算法優(yōu)化方法。

    10.一種計(jì)算機(jī)可讀存儲(chǔ)介質(zhì),其特征在于,所述計(jì)算機(jī)可讀存儲(chǔ)介質(zhì)存儲(chǔ)有計(jì)算機(jī)程序,所述計(jì)算機(jī)程序被處理器執(zhí)行以實(shí)現(xiàn)上述權(quán)利要求1-8中任意一項(xiàng)所述的一種基于深度學(xué)習(xí)技術(shù)的AI算法優(yōu)化方法。

    ...

    【技術(shù)特征摘要】

    1.一種基于深度學(xué)習(xí)技術(shù)的ai算法優(yōu)化方法,其特征在于,所述方法應(yīng)用于目標(biāo)檢測(cè)算法yolov8模型,包括:

    2.根據(jù)權(quán)利要求1所述的一種基于深度學(xué)習(xí)技術(shù)的ai算法優(yōu)化方法,其特征在于,所述改進(jìn)頸部網(wǎng)絡(luò)包括如下步驟:

    3.根據(jù)權(quán)利要求1所述的一種基于深度學(xué)習(xí)技術(shù)的ai算法優(yōu)化方法,其特征在于,所述將三個(gè)分支進(jìn)行拼接輸入自適應(yīng)特征融合模塊asff,通過對(duì)不同尺度特征圖賦予可學(xué)習(xí)權(quán)重,將三個(gè)dmconv分支的輸出與權(quán)重相乘后相加完成自適應(yīng)多尺度特征融合,包括:

    4.根據(jù)權(quán)利要求3所述的一種基于深度學(xué)習(xí)技術(shù)的ai算法優(yōu)化方法,其特征在于,所述dmconv的結(jié)構(gòu)包括:若干普通卷積層和若干擴(kuò)張卷積層,所述普通卷積層和擴(kuò)張卷積層串聯(lián)或并聯(lián);通過普通卷積層和擴(kuò)張卷積層串聯(lián)、拼接和通道混洗的操作,獲得離中心點(diǎn)更廣泛區(qū)域特征之間的聯(lián)系,以更好的學(xué)習(xí)圖像中目標(biāo)的空間位置信息和散射特性。

    5.根據(jù)權(quán)利要求1所述的一種基于深度學(xué)習(xí)技術(shù)的ai算法優(yōu)化方法,其...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:曹德水
    申請(qǐng)(專利權(quán))人:干將未來科技產(chǎn)業(yè)杭州有限公司
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評(píng)論
    • 還沒有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。

    1
    主站蜘蛛池模板: 亚洲AV无码专区在线播放中文 | 亚洲欧洲精品无码AV| 成年轻人电影www无码| 一区二区三区无码高清| 亚洲AV综合色区无码一区| 国产精品无码亚洲一区二区三区 | 精品无码av一区二区三区| 性生交片免费无码看人| 亚洲中文字幕无码久久综合网 | JAVA性无码HD中文| 免费a级毛片无码a∨免费软件| 人妻夜夜添夜夜无码AV| 少妇无码太爽了不卡在线观看| 亚洲精品无码国产片| 亚洲AV无码成人精品区天堂 | 国产亚洲AV无码AV男人的天堂| 亚洲国产AV无码一区二区三区| 亚洲VA成无码人在线观看天堂| 精品无码一区二区三区水蜜桃| 中文字幕无码亚洲欧洲日韩| 高清无码视频直接看| 人妻少妇AV无码一区二区| 狠狠精品干练久久久无码中文字幕| 亚洲av永久无码制服河南实里 | 日韩av无码国产精品| 人妻无码久久一区二区三区免费| 国产成人无码午夜福利软件| 国产嫖妓一区二区三区无码| 无码国产精品一区二区免费| 亚洲国产超清无码专区| 国产激情无码一区二区| 在线观看免费无码专区| 国产真人无码作爱免费视频| 国模吧无码一区二区三区| 亚洲无码精品浪潮| 野花在线无码视频在线播放| 免费无码黄网站在线看| 亚洲精品无码不卡在线播HE| 亚洲国产精品无码成人片久久| 亚洲av永久无码精品网站| 久久精品aⅴ无码中文字字幕|