System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 九九久久精品无码专区,97精品人妻系列无码人妻,东京热av人妻无码专区
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當(dāng)前位置: 首頁 > 專利查詢>山東科技大學(xué)專利>正文

    基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法技術(shù)

    技術(shù)編號:44234766 閱讀:5 留言:0更新日期:2025-02-11 13:36
    本發(fā)明專利技術(shù)公開基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,屬于海洋養(yǎng)殖區(qū)域預(yù)測方法領(lǐng)域。該方法對高分3號雷達(dá)影像數(shù)據(jù)與高分2號光學(xué)影像數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理,將光學(xué)影像數(shù)據(jù)與雷達(dá)影像數(shù)據(jù)進(jìn)行波段合成和影像融合,構(gòu)建數(shù)據(jù)集。在應(yīng)用U2?Net神經(jīng)網(wǎng)絡(luò)模型主體結(jié)構(gòu)的基礎(chǔ)上,修改RSU模塊的模型網(wǎng)絡(luò)結(jié)構(gòu),在殘差U型模塊結(jié)構(gòu)內(nèi)部和外部添加基于最大池化和平均池化的通道注意力機(jī)制,構(gòu)建U2?Net_SEOUT模型,實(shí)現(xiàn)養(yǎng)殖區(qū)域面積和分布的預(yù)測。該方法通過綜合利用光學(xué)影像和SAR影像的優(yōu)勢,修改網(wǎng)絡(luò)結(jié)構(gòu)增加網(wǎng)絡(luò)層數(shù)和復(fù)雜度,提高對筏式養(yǎng)殖區(qū)域預(yù)測的精度。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)公開基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,屬于養(yǎng)殖區(qū)域預(yù)測方法領(lǐng)域。


    技術(shù)介紹

    1、現(xiàn)有筏式養(yǎng)殖區(qū)的預(yù)測方法主要有目視解譯、特征指數(shù)、深度學(xué)習(xí)和面向?qū)ο蟮龋涠酁榛谏窠?jīng)網(wǎng)絡(luò)對單一數(shù)據(jù)源的提取,對養(yǎng)殖區(qū)域的預(yù)測精度受限。且筏式養(yǎng)殖設(shè)施經(jīng)常在局部被水淹沒,導(dǎo)致其光譜信息較弱。傳統(tǒng)的預(yù)測方法和深度學(xué)習(xí)方法對養(yǎng)殖區(qū)域的預(yù)測精度都具有一定局限性。近年來,隨著深度卷積神經(jīng)網(wǎng)絡(luò)(cnn)的飛速發(fā)展,特別是全卷積網(wǎng)絡(luò)(fcn)在區(qū)域預(yù)測領(lǐng)域的快速興起,顯著性目標(biāo)預(yù)測水平實(shí)現(xiàn)了大幅度進(jìn)步。

    2、本專利技術(shù)所采用的深度學(xué)習(xí)方法具有強(qiáng)大的數(shù)據(jù)挖掘和特征提取能力,通過卷積層自主學(xué)習(xí)影像光譜信息和空間特征,避免對影像進(jìn)行復(fù)雜的光譜特征分析,減少工作量,同時通過對雷達(dá)影像和光學(xué)影像數(shù)據(jù)進(jìn)行影像融合,能夠?qū)崿F(xiàn)大范圍自動精準(zhǔn)分類,且具有魯棒性、穩(wěn)定性及不變性等優(yōu)勢。sar影像不受云、雨等天氣影響,能全天時、全天候地進(jìn)行觀測,本專利技術(shù)所用的高分3號衛(wèi)星影像是典型的sar衛(wèi)星影像之一。本專利技術(shù)通過添加通道注意力機(jī)制改進(jìn)u2-net卷積神經(jīng)網(wǎng)絡(luò),綜合利用光學(xué)影像和sar影像的優(yōu)勢,提高了筏式養(yǎng)殖區(qū)預(yù)測的精度和可靠性。


    技術(shù)實(shí)現(xiàn)思路

    1、本專利技術(shù)的目的在于提供基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,通過增加unet網(wǎng)絡(luò)的網(wǎng)絡(luò)層數(shù)和復(fù)雜度,增加特征圖的尺度,通過綜合利用光學(xué)影像和sar影像的優(yōu)勢,提高筏式養(yǎng)殖區(qū)預(yù)測的精度和可靠性。

    2、基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,包括:

    3、s1.通過高分3號衛(wèi)星獲取養(yǎng)殖區(qū)域的高分3號影像數(shù)據(jù),對高分3號影像數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理;

    4、s2.通過對預(yù)處理后的高分3號影像數(shù)據(jù)進(jìn)行重采樣和影像配準(zhǔn)處理,得到養(yǎng)殖區(qū)域的雷達(dá)影像數(shù)據(jù);

    5、s3.通過高分2號衛(wèi)星獲取養(yǎng)殖區(qū)域的高分2號影像數(shù)據(jù),對高分2號影像數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理,得到養(yǎng)殖區(qū)域的光學(xué)影像數(shù)據(jù);

    6、s4.通過對養(yǎng)殖區(qū)域的雷達(dá)影像數(shù)據(jù)和養(yǎng)殖區(qū)域的光學(xué)影像數(shù)據(jù)進(jìn)行波段合成和影像融合,構(gòu)建gf23b數(shù)據(jù)集;

    7、s5.基于原始unet神經(jīng)網(wǎng)絡(luò)模型,通過修改模型網(wǎng)絡(luò)結(jié)構(gòu)提高模型復(fù)雜度,得到嵌套u(yù)net神經(jīng)網(wǎng)絡(luò);

    8、s6.通過在嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)中添加通道注意力機(jī)制,構(gòu)建u2-net_se2神經(jīng)網(wǎng)絡(luò)模型;

    9、s7.基于gf23b數(shù)據(jù)集對u2-net_se2神經(jīng)網(wǎng)絡(luò)模型進(jìn)行模型訓(xùn)練和驗(yàn)證,通過u2-net_se2神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)對養(yǎng)殖區(qū)域的預(yù)測。

    10、s1中,對高分3號影像數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理包括輻射定標(biāo)、數(shù)據(jù)轉(zhuǎn)換、多視處理、濾波處理和地理編碼。

    11、s3中,對高分2號影像數(shù)據(jù)的數(shù)據(jù)預(yù)處理包括輻射定標(biāo)和大氣校正。

    12、s4中,將養(yǎng)殖區(qū)域的雷達(dá)影像數(shù)據(jù)作為一個波段與養(yǎng)殖區(qū)域的光學(xué)影像數(shù)據(jù)進(jìn)行波段合成。

    13、s4中,利用圖像融合算法nndiffuse?pan?sharpening對養(yǎng)殖區(qū)域的雷達(dá)影像數(shù)據(jù)和養(yǎng)殖區(qū)域的光學(xué)影像數(shù)據(jù)進(jìn)行像元級別的影像融合,通過影像融合將兩種影像數(shù)據(jù)的空間特征和光譜特征進(jìn)行融合,增加影像數(shù)據(jù)的紋理特征,將融合后的影像數(shù)據(jù)和影像數(shù)據(jù)對應(yīng)的標(biāo)簽數(shù)據(jù)統(tǒng)一裁剪成512×512的大小,構(gòu)建gf23b數(shù)據(jù)集。

    14、s5中,嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)為兩層嵌套的u型結(jié)構(gòu),包括編碼器、解碼器和顯著性圖融合模塊,編碼器由en_1至en_6六個路邊單元rsu模塊組成,解碼器由de_1至de_5五個路邊單元rsu模塊組成,顯著性圖融合模塊與編碼器和解碼器相連接,采用逐漸相連的方式進(jìn)行特征融合,對編碼器的en_6模塊和解碼器的de_5至de_1模塊進(jìn)行3×3卷積處理和上采樣處理,將輸出圖像處理為與輸入圖像的大小一致,再經(jīng)1×1卷積處理后利用激活函數(shù)sigmoid函數(shù)生成顯著性概率映射圖。

    15、rsu-l模塊為高度確定的rsu模塊,l為高度,由輸入特征的空間分辨率決定,en_5模塊的rsu模塊的高度是7,en_6模塊的rsu模塊的高度是4,通過池化操作和上采樣操作將en_5模塊的rsu-7模塊和en_6模塊的rsu-4模塊替換為rsu-4f模塊,f表示擴(kuò)展,通過rsu-4f模塊將中間特征圖的分辨率處理為與輸入特征圖的分辨率相同。

    16、s6中,通過在嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的u型結(jié)構(gòu)的內(nèi)部和外部同時添加通道注意力模塊,構(gòu)建u2-net_se2模型。

    17、通道注意力模塊為基于全局最大池化和平均池化的se模塊,位于嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的u型結(jié)構(gòu)的編碼器部分的en_1至en_4模塊的結(jié)構(gòu)內(nèi)部和外部。

    18、s7中,基于gf23b數(shù)據(jù)集的訓(xùn)練集對u2-net_se2神經(jīng)網(wǎng)絡(luò)模型進(jìn)行模型訓(xùn)練,通過模型自學(xué)習(xí)gf23b數(shù)據(jù)集中影像數(shù)據(jù)的空間特征和光譜特征,預(yù)測養(yǎng)殖區(qū)域的面積和分布,基于gf23b數(shù)據(jù)集的驗(yàn)證集進(jìn)行模型驗(yàn)證,檢驗(yàn)?zāi)P皖A(yù)測精度。

    19、相對比現(xiàn)有技術(shù),本專利技術(shù)具有以下有益效果:

    20、本專利技術(shù)的養(yǎng)殖區(qū)域預(yù)測方法基于u2-net神經(jīng)網(wǎng)絡(luò)模型的主干網(wǎng)絡(luò)結(jié)構(gòu),進(jìn)行模型結(jié)構(gòu)的修改,將編碼器的en_5-en_6模塊替換為拓展卷積的rsu-4f模塊,通過在殘差u型模塊中添加基于最大池化和平均池化的通道注意力模塊,構(gòu)建u2-net_se2模型,增加了神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)層數(shù)和復(fù)雜度,提高了對養(yǎng)殖區(qū)域預(yù)測的精度。此外本專利技術(shù)對高分2號光學(xué)影像和高分3號sar影像進(jìn)行波段合成和影像融合,構(gòu)建了gf23b數(shù)據(jù)集,能夠綜合利用光學(xué)影像和sar影像的優(yōu)勢,解決了筏式養(yǎng)殖設(shè)施在局部被水淹沒導(dǎo)致其光譜信息較弱,影響?zhàn)B殖區(qū)域預(yù)測精度的問題。

    21、對u2-net神經(jīng)網(wǎng)絡(luò)內(nèi)外u型結(jié)構(gòu)同時添加通道注意力模塊構(gòu)成的u2-net_se2模型在筏式養(yǎng)殖區(qū)提取方面結(jié)果優(yōu)異,其對于典型區(qū)域的提取總體精度達(dá)到98.05%,kappa系數(shù)為0.9589,較原始神經(jīng)網(wǎng)絡(luò)分別提升4.32%與0.095。對于弱信號區(qū)域其提取精度達(dá)到96.50%以上,較原始神經(jīng)網(wǎng)絡(luò)提升8.5%以上。

    本文檔來自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】

    1.基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,包括:

    2.根據(jù)權(quán)利要求1所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,S1中,對高分3號影像數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理包括輻射定標(biāo)、數(shù)據(jù)轉(zhuǎn)換、多視處理、濾波處理和地理編碼。

    3.根據(jù)權(quán)利要求2所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,S3中,對高分2號影像數(shù)據(jù)的數(shù)據(jù)預(yù)處理包括輻射定標(biāo)和大氣校正。

    4.根據(jù)權(quán)利要求3所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,S4中,將養(yǎng)殖區(qū)域的雷達(dá)影像數(shù)據(jù)作為一個波段與養(yǎng)殖區(qū)域的光學(xué)影像數(shù)據(jù)進(jìn)行波段合成。

    5.根據(jù)權(quán)利要求4所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,S4中,利用圖像融合算法NNDiffuse?Pan?Sharpening對養(yǎng)殖區(qū)域的雷達(dá)影像數(shù)據(jù)和養(yǎng)殖區(qū)域的光學(xué)影像數(shù)據(jù)進(jìn)行像元級別的影像融合,通過影像融合將兩種影像數(shù)據(jù)的空間特征和光譜特征進(jìn)行融合,增加影像數(shù)據(jù)的紋理特征,將融合后的影像數(shù)據(jù)和影像數(shù)據(jù)對應(yīng)的標(biāo)簽數(shù)據(jù)統(tǒng)一裁剪成512×512的大小,構(gòu)建GF23B數(shù)據(jù)集。

    6.根據(jù)權(quán)利要求5所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,S5中,嵌套UNet神經(jīng)網(wǎng)絡(luò)為兩層嵌套的U型結(jié)構(gòu),包括編碼器、解碼器和顯著性圖融合模塊,編碼器由En_1至En_6六個路邊單元RSU模塊組成,解碼器由De_1至De_5五個路邊單元RSU模塊組成,顯著性圖融合模塊與編碼器和解碼器相連接,采用逐漸相連的方式進(jìn)行特征融合,對編碼器的En_6模塊和解碼器的De_5至De_1模塊進(jìn)行3×3卷積處理和上采樣處理,將輸出圖像處理為與輸入圖像的大小一致,再經(jīng)1×1卷積處理后利用激活函數(shù)Sigmoid函數(shù)生成顯著性概率映射圖。

    7.根據(jù)權(quán)利要求6所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,RSU-L模塊為高度確定的RSU模塊,L為高度,由輸入特征的空間分辨率決定,En_5模塊的RSU模塊的高度是7,En_6模塊的RSU模塊的高度是4,通過池化操作和上采樣操作將En_5模塊的RSU-7模塊和En_6模塊的RSU-4模塊替換為RSU-4F模塊,F(xiàn)表示擴(kuò)展,通過RSU-4F模塊將中間特征圖的分辨率處理為與輸入特征圖的分辨率相同。

    8.根據(jù)權(quán)利要求7所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,S6中,通過在嵌套UNet神經(jīng)網(wǎng)絡(luò)的U型結(jié)構(gòu)的內(nèi)部和外部同時添加通道注意力模塊,構(gòu)建U2-Net_Se2模型。

    9.根據(jù)權(quán)利要求8所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,通道注意力模塊為基于全局最大池化和平均池化的SE模塊,位于嵌套UNet神經(jīng)網(wǎng)絡(luò)的U型結(jié)構(gòu)的編碼器部分的En_1至En_4模塊的結(jié)構(gòu)內(nèi)部和外部。

    10.根據(jù)權(quán)利要求9所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,S7中,基于GF23B數(shù)據(jù)集的訓(xùn)練集對U2-Net_Se2神經(jīng)網(wǎng)絡(luò)模型進(jìn)行模型訓(xùn)練,通過模型自學(xué)習(xí)GF23B數(shù)據(jù)集中影像數(shù)據(jù)的空間特征和光譜特征,預(yù)測養(yǎng)殖區(qū)域的面積和分布,基于GF23B數(shù)據(jù)集的驗(yàn)證集進(jìn)行模型驗(yàn)證,檢驗(yàn)?zāi)P皖A(yù)測精度。

    ...

    【技術(shù)特征摘要】

    1.基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,包括:

    2.根據(jù)權(quán)利要求1所述的基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,s1中,對高分3號影像數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理包括輻射定標(biāo)、數(shù)據(jù)轉(zhuǎn)換、多視處理、濾波處理和地理編碼。

    3.根據(jù)權(quán)利要求2所述的基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,s3中,對高分2號影像數(shù)據(jù)的數(shù)據(jù)預(yù)處理包括輻射定標(biāo)和大氣校正。

    4.根據(jù)權(quán)利要求3所述的基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,s4中,將養(yǎng)殖區(qū)域的雷達(dá)影像數(shù)據(jù)作為一個波段與養(yǎng)殖區(qū)域的光學(xué)影像數(shù)據(jù)進(jìn)行波段合成。

    5.根據(jù)權(quán)利要求4所述的基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,s4中,利用圖像融合算法nndiffuse?pan?sharpening對養(yǎng)殖區(qū)域的雷達(dá)影像數(shù)據(jù)和養(yǎng)殖區(qū)域的光學(xué)影像數(shù)據(jù)進(jìn)行像元級別的影像融合,通過影像融合將兩種影像數(shù)據(jù)的空間特征和光譜特征進(jìn)行融合,增加影像數(shù)據(jù)的紋理特征,將融合后的影像數(shù)據(jù)和影像數(shù)據(jù)對應(yīng)的標(biāo)簽數(shù)據(jù)統(tǒng)一裁剪成512×512的大小,構(gòu)建gf23b數(shù)據(jù)集。

    6.根據(jù)權(quán)利要求5所述的基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,s5中,嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)為兩層嵌套的u型結(jié)構(gòu),包括編碼器、解碼器和顯著性圖融合模塊,編碼器由en_1至en_6六個路邊單元rsu模塊組成,解碼器由de_1至de_5五個路邊單元rsu模塊組成,顯著性圖融合模塊與編碼器和解碼器相連接,采用逐漸相連的方式進(jìn)行特征融合,對編碼器的e...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:蔡玉林朱嘉琪侯娟朱子正李龍坤韓廣萌李穎田春松武文章呂丕賢
    申請(專利權(quán))人:山東科技大學(xué)
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 伊人久久综合精品无码AV专区| 亚洲av无码一区二区三区观看| 深夜a级毛片免费无码| 国产精品亚洲专区无码WEB| 黄桃AV无码免费一区二区三区| 日韩免费人妻AV无码专区蜜桃| 国产精品成人无码久久久| 中文字幕久久精品无码| 一本色道久久综合无码人妻 | 全免费a级毛片免费看无码| 国产精品无码素人福利| 亚洲精品无码久久| 免费无码又爽又刺激高潮视频| 国产精品国产免费无码专区不卡 | 国产精品无码aⅴ嫩草| 人妻丰满熟妇无码区免费| 久久久久久av无码免费看大片| 一区二区无码免费视频网站| 午夜不卡无码中文字幕影院| 曰批全过程免费视频在线观看无码| 精品无码人妻一区二区三区18| 日韩AV无码久久一区二区| 亚洲日韩激情无码一区| 无码天堂va亚洲va在线va| 中文字幕人成无码人妻| 久久无码中文字幕东京热| 国产成人精品无码片区在线观看| 人妻无码中文字幕| 国产精品成人99一区无码| 东京热av人妻无码| 无码中文字幕色专区| 国产av无码专区亚洲av毛片搜| 亚洲AV无码男人的天堂| 无码人妻精品内射一二三AV| 亚洲日韩一区二区一无码| 性色av极品无码专区亚洲| 免费无码精品黄AV电影| 免费无遮挡无码视频在线观看| 成人无码嫩草影院| 国产高清无码二区| 亚洲自偷自偷偷色无码中文 |