System.ArgumentOutOfRangeException: 索引和長(zhǎng)度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 日日摸夜夜爽无码毛片精选,无码视频免费一区二三区 ,成人无码WWW免费视频
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于深度學(xué)習(xí)串聯(lián)優(yōu)化器的圖像分類方法技術(shù)

    技術(shù)編號(hào):44327726 閱讀:8 留言:0更新日期:2025-02-18 20:36
    本發(fā)明專利技術(shù)公開了一種基于深度學(xué)習(xí)串聯(lián)優(yōu)化器的圖像分類方法,針對(duì)Adam優(yōu)化器及SGD優(yōu)化器各自的優(yōu)缺點(diǎn),構(gòu)建了基于Adam優(yōu)化器和SGD優(yōu)化器的深度學(xué)習(xí)串聯(lián)優(yōu)化器,以Adam優(yōu)化器作為主優(yōu)化器,SGD優(yōu)化器作為副優(yōu)化器,采用深度學(xué)習(xí)串聯(lián)優(yōu)化器優(yōu)化圖像分類網(wǎng)絡(luò)模型的訓(xùn)練訓(xùn)練過(guò)程,得到更優(yōu)的網(wǎng)絡(luò)參數(shù)值,以實(shí)現(xiàn)更加精確的圖像分類。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)屬于模式識(shí)別、機(jī)器學(xué)習(xí)及圖像分類,具體涉及一種基于深度學(xué)習(xí)串聯(lián)優(yōu)化器的圖像分類方法


    技術(shù)介紹

    1、深度學(xué)習(xí)技術(shù)在機(jī)器視覺(jué)領(lǐng)域,如圖像分類,已經(jīng)取得了顯著的成果。神經(jīng)網(wǎng)絡(luò)模型的復(fù)雜性和數(shù)據(jù)集的規(guī)模是其強(qiáng)大性能的關(guān)鍵因素。盡管更復(fù)雜的模型和更大的數(shù)據(jù)集能夠提升性能,但這通常需要更長(zhǎng)的訓(xùn)練時(shí)間和更高的計(jì)算資源。因此,工業(yè)界和學(xué)術(shù)界對(duì)在大型集群上進(jìn)行分布式深度學(xué)習(xí)訓(xùn)練的需求日益增長(zhǎng),數(shù)據(jù)并行成為了分布式訓(xùn)練的主流方法。

    2、在分布式圖像分類研究中,adam優(yōu)化器因其效率而被廣泛采用。然而,基于adam的圖像分類訓(xùn)練面臨著一個(gè)挑戰(zhàn):使用小批量數(shù)據(jù)會(huì)導(dǎo)致訓(xùn)練時(shí)間過(guò)長(zhǎng),而使用大批量數(shù)據(jù)則可能導(dǎo)致模型精度顯著下降。這主要是因?yàn)椋菏紫龋瑪?shù)據(jù)量增加意味著模型參數(shù)更新次數(shù)減少,導(dǎo)致收斂速度減慢,使得優(yōu)化器難以在有限的更新次數(shù)內(nèi)達(dá)到理想的收斂效果;其次,大批量數(shù)據(jù)可能會(huì)使優(yōu)化器陷入尖銳的局部最小值,從而降低模型的泛化能力。因此,設(shè)計(jì)一種在保持圖像分類精度的同時(shí),又能高效穩(wěn)定的深度學(xué)習(xí)優(yōu)化器,具有重要的研究?jī)r(jià)值。


    技術(shù)實(shí)現(xiàn)思路

    1、有鑒于此,本專利技術(shù)提供了一種基于深度學(xué)習(xí)串聯(lián)優(yōu)化器的圖像分類方法,由adam優(yōu)化器和sgd優(yōu)化器串聯(lián)構(gòu)成,以adam優(yōu)化器作為主優(yōu)化器,sgd優(yōu)化器作為副優(yōu)化器,實(shí)現(xiàn)了精確的圖像分類。

    2、本專利技術(shù)提供的一種基于深度學(xué)習(xí)串聯(lián)優(yōu)化器的圖像分類方法,具體包括以下步驟:

    3、步驟1、采集圖像數(shù)據(jù)建立圖像數(shù)據(jù)集,并為圖像數(shù)據(jù)集中的圖像數(shù)據(jù)建立標(biāo)記形成訓(xùn)練樣本集;

    4、步驟2、選擇神經(jīng)網(wǎng)絡(luò)模型建立圖像分類網(wǎng)絡(luò)模型,圖像分類網(wǎng)絡(luò)模型的輸入為待分類圖像,輸出為待分類圖像的類型;

    5、步驟3、構(gòu)建由sgd優(yōu)化器和adam優(yōu)化器串聯(lián)形成的深度學(xué)習(xí)串聯(lián)優(yōu)化器,輸入為當(dāng)前第k-1次迭代后的圖像分類網(wǎng)絡(luò)模型網(wǎng)絡(luò)參數(shù)值的梯度,輸出為第k次迭代所需設(shè)置的圖像分類網(wǎng)絡(luò)模型的網(wǎng)絡(luò)參數(shù)值;深度學(xué)習(xí)串聯(lián)優(yōu)化器內(nèi),將輸入經(jīng)adam優(yōu)化器處理所得到的網(wǎng)絡(luò)參數(shù)值作為第一參數(shù)值,再將輸入與第一參數(shù)值的和經(jīng)sgd優(yōu)化器處理所得到的網(wǎng)絡(luò)參數(shù)值作為第二參數(shù)值,將第二參數(shù)值作為輸出;

    6、步驟4、將訓(xùn)練樣本集中的樣本圖像輸入圖像分類網(wǎng)絡(luò)模型得到樣本圖像的標(biāo)簽,再采用深度學(xué)習(xí)串聯(lián)優(yōu)化器優(yōu)化圖像分類網(wǎng)絡(luò)模型的網(wǎng)絡(luò)參數(shù)值,完成一次迭代,當(dāng)?shù)螖?shù)k達(dá)到設(shè)定的閾值時(shí),完成對(duì)圖像分類網(wǎng)絡(luò)模型的訓(xùn)練;

    7、步驟5、將待分類圖像輸入訓(xùn)練得到的圖像分類網(wǎng)絡(luò)模型中,圖像分類網(wǎng)絡(luò)模型輸出待分類圖像的類別,完成圖像的分類。

    8、進(jìn)一步地,所述神經(jīng)網(wǎng)絡(luò)模型為capsnet、unet、wideresnet-28、resnet-34、resnet-18或densenet-12。

    9、進(jìn)一步地,所述步驟3中所述將輸入經(jīng)adam優(yōu)化器處理所得到的網(wǎng)絡(luò)參數(shù)值作為第一參數(shù)值的計(jì)算方式為:

    10、

    11、其中,gk-1為第k-1次迭代后的圖像分類網(wǎng)絡(luò)模型網(wǎng)絡(luò)參數(shù)值的梯度;mk、mk-1分別為adam優(yōu)化器在第k次和第k-1次迭代的一階動(dòng)量;vk、vk-1分別為adam優(yōu)化器在第k次和第k-1次迭代的二階動(dòng)量;β2、β3分別為adam優(yōu)化器的一階動(dòng)量和二階動(dòng)量的累積系數(shù),β2和β3的取值范圍均為(0,1);為hadamard內(nèi)積;ε>0為光滑系數(shù);ηadam為adam優(yōu)化器的初始學(xué)習(xí)率;為adam優(yōu)化器的第k次迭代的廣義學(xué)習(xí)率;為adam優(yōu)化器第k-1次迭代輸出的圖像分類網(wǎng)絡(luò)模型的第一參數(shù)值;為第k次迭代所需采用的第一參數(shù)值。

    12、進(jìn)一步地,所述步驟3中所述將輸入與第一參數(shù)值的和經(jīng)sgd優(yōu)化器處理所得到的網(wǎng)絡(luò)參數(shù)值作為第二參數(shù)值的計(jì)算方式為:

    13、

    14、其中,為sgd優(yōu)化器在第k-1次迭代后得到的圖像分類網(wǎng)絡(luò)模型的第二參數(shù)值;ηsgd為sgd優(yōu)化器的初始學(xué)習(xí)率;為第k次迭代所需采用的第二參數(shù)值。

    15、有益效果:

    16、本專利技術(shù)針對(duì)adam優(yōu)化器及sgd優(yōu)化器各自的優(yōu)缺點(diǎn),構(gòu)建了基于adam優(yōu)化器和sgd優(yōu)化器的深度學(xué)習(xí)串聯(lián)優(yōu)化器,以adam優(yōu)化器作為主優(yōu)化器,sgd優(yōu)化器作為副優(yōu)化器,采用深度學(xué)習(xí)串聯(lián)優(yōu)化器優(yōu)化圖像分類網(wǎng)絡(luò)模型的訓(xùn)練訓(xùn)練過(guò)程,得到更優(yōu)的網(wǎng)絡(luò)參數(shù)值,以實(shí)現(xiàn)更加精確的圖像分類。

    本文檔來(lái)自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】

    1.一種基于深度學(xué)習(xí)串聯(lián)優(yōu)化器的圖像分類方法,其特征在于,具體包括以下步驟:

    2.根據(jù)權(quán)利要求1所述的圖像分類方法,其特征在于,所述神經(jīng)網(wǎng)絡(luò)模型為CapsNet、Unet、WideResNet-28、ResNet-34、ResNet-18或DenseNet-12。

    3.根據(jù)權(quán)利要求1所述的圖像分類方法,其特征在于,所述步驟3中所述將輸入經(jīng)Adam優(yōu)化器處理所得到的網(wǎng)絡(luò)參數(shù)值作為第一參數(shù)值的計(jì)算方式為:

    4.根據(jù)權(quán)利要求3所述的圖像分類方法,其特征在于,所述步驟3中所述將輸入與第一參數(shù)值的和經(jīng)SGD優(yōu)化器處理所得到的網(wǎng)絡(luò)參數(shù)值作為第二參數(shù)值的計(jì)算方式為:

    【技術(shù)特征摘要】

    1.一種基于深度學(xué)習(xí)串聯(lián)優(yōu)化器的圖像分類方法,其特征在于,具體包括以下步驟:

    2.根據(jù)權(quán)利要求1所述的圖像分類方法,其特征在于,所述神經(jīng)網(wǎng)絡(luò)模型為capsnet、unet、wideresnet-28、resnet-34、resnet-18或densenet-12。

    3.根據(jù)...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:鄒偉東夏元清
    申請(qǐng)(專利權(quán))人:北京理工大學(xué)
    類型:發(fā)明
    國(guó)別省市:

    網(wǎng)友詢問(wèn)留言 已有0條評(píng)論
    • 還沒(méi)有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。

    1
    主站蜘蛛池模板: 中文无码人妻有码人妻中文字幕 | 亚洲爆乳无码一区二区三区| 久久人午夜亚洲精品无码区| 无码毛片一区二区三区视频免费播放 | 粉嫩高中生无码视频在线观看| 亚洲av无码片在线播放| 国产午夜av无码无片久久96| 亚洲av无码国产精品色午夜字幕| 国产成年无码久久久久下载| 日韩AV无码久久一区二区| 欧洲精品无码一区二区三区在线播放| 亚洲AV日韩AV永久无码下载| 黑人巨大无码中文字幕无码| 小SAO货水好多真紧H无码视频| 无码国产成人午夜电影在线观看| av区无码字幕中文色| 精品无码国产自产拍在线观看| 九九久久精品无码专区| 国产日韩精品无码区免费专区国产 | 99久久人妻无码精品系列| 亚洲一区AV无码少妇电影☆| 中文字幕精品无码亚洲字| 青青爽无码视频在线观看| 精品无码一区二区三区亚洲桃色| 亚洲色无码专区在线观看| 中文无码熟妇人妻AV在线 | 777爽死你无码免费看一二区| 久久久久久国产精品无码超碰| 日韩综合无码一区二区| 精品无码综合一区| 亚洲精品无码久久久久AV麻豆| 一级毛片中出无码| 亚洲国产综合无码一区二区二三区 | 少妇人妻偷人精品无码视频| 国产AV无码专区亚洲AV男同| 日韩人妻无码一区二区三区| 国产AV无码专区亚洲AV漫画 | 国产成人亚洲综合无码| 国产AV天堂无码一区二区三区| 人妻AV中出无码内射| 国产精品多人p群无码|