System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技術(shù)實(shí)現(xiàn)步驟摘要】
本專利技術(shù)公開基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,屬于養(yǎng)殖區(qū)域預(yù)測方法領(lǐng)域。
技術(shù)介紹
1、現(xiàn)有筏式養(yǎng)殖區(qū)的預(yù)測方法主要有目視解譯、特征指數(shù)、深度學(xué)習(xí)和面向?qū)ο蟮龋涠酁榛谏窠?jīng)網(wǎng)絡(luò)對單一數(shù)據(jù)源的提取,對養(yǎng)殖區(qū)域的預(yù)測精度受限。且筏式養(yǎng)殖設(shè)施經(jīng)常在局部被水淹沒,導(dǎo)致其光譜信息較弱。傳統(tǒng)的預(yù)測方法和深度學(xué)習(xí)方法對養(yǎng)殖區(qū)域的預(yù)測精度都具有一定局限性。近年來,隨著深度卷積神經(jīng)網(wǎng)絡(luò)(cnn)的飛速發(fā)展,特別是全卷積網(wǎng)絡(luò)(fcn)在區(qū)域預(yù)測領(lǐng)域的快速興起,顯著性目標(biāo)預(yù)測水平實(shí)現(xiàn)了大幅度進(jìn)步。
2、本專利技術(shù)所采用的深度學(xué)習(xí)方法具有強(qiáng)大的數(shù)據(jù)挖掘和特征提取能力,通過卷積層自主學(xué)習(xí)影像光譜信息和空間特征,避免對影像進(jìn)行復(fù)雜的光譜特征分析,減少工作量,同時通過對雷達(dá)影像和光學(xué)影像數(shù)據(jù)進(jìn)行影像融合,能夠?qū)崿F(xiàn)大范圍自動精準(zhǔn)分類,且具有魯棒性、穩(wěn)定性及不變性等優(yōu)勢。sar影像不受云、雨等天氣影響,能全天時、全天候地進(jìn)行觀測,本專利技術(shù)所用的高分3號衛(wèi)星影像是典型的sar衛(wèi)星影像之一。本專利技術(shù)通過添加通道注意力機(jī)制改進(jìn)u2-net卷積神經(jīng)網(wǎng)絡(luò),綜合利用光學(xué)影像和sar影像的優(yōu)勢,提高了筏式養(yǎng)殖區(qū)預(yù)測的精度和可靠性。
技術(shù)實(shí)現(xiàn)思路
1、本專利技術(shù)的目的在于提供基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,通過增加unet網(wǎng)絡(luò)的網(wǎng)絡(luò)層數(shù)和復(fù)雜度,增加特征圖的尺度,通過綜合利用光學(xué)影像和sar影像的優(yōu)勢,提高筏式養(yǎng)殖區(qū)預(yù)測的精度和可靠性。
2、基于改進(jìn)的嵌套u(yù)net神
3、s1.通過高分3號衛(wèi)星獲取養(yǎng)殖區(qū)域的高分3號影像數(shù)據(jù),對高分3號影像數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理;
4、s2.通過對預(yù)處理后的高分3號影像數(shù)據(jù)進(jìn)行重采樣和影像配準(zhǔn)處理,得到養(yǎng)殖區(qū)域的雷達(dá)影像數(shù)據(jù);
5、s3.通過高分2號衛(wèi)星獲取養(yǎng)殖區(qū)域的高分2號影像數(shù)據(jù),對高分2號影像數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理,得到養(yǎng)殖區(qū)域的光學(xué)影像數(shù)據(jù);
6、s4.通過對養(yǎng)殖區(qū)域的雷達(dá)影像數(shù)據(jù)和養(yǎng)殖區(qū)域的光學(xué)影像數(shù)據(jù)進(jìn)行波段合成和影像融合,構(gòu)建gf23b數(shù)據(jù)集;
7、s5.基于原始unet神經(jīng)網(wǎng)絡(luò)模型,通過修改模型網(wǎng)絡(luò)結(jié)構(gòu)提高模型復(fù)雜度,得到嵌套u(yù)net神經(jīng)網(wǎng)絡(luò);
8、s6.通過在嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)中添加通道注意力機(jī)制,構(gòu)建u2-net_se2神經(jīng)網(wǎng)絡(luò)模型;
9、s7.基于gf23b數(shù)據(jù)集對u2-net_se2神經(jīng)網(wǎng)絡(luò)模型進(jìn)行模型訓(xùn)練和驗(yàn)證,通過u2-net_se2神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)對養(yǎng)殖區(qū)域的預(yù)測。
10、s1中,對高分3號影像數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理包括輻射定標(biāo)、數(shù)據(jù)轉(zhuǎn)換、多視處理、濾波處理和地理編碼。
11、s3中,對高分2號影像數(shù)據(jù)的數(shù)據(jù)預(yù)處理包括輻射定標(biāo)和大氣校正。
12、s4中,將養(yǎng)殖區(qū)域的雷達(dá)影像數(shù)據(jù)作為一個波段與養(yǎng)殖區(qū)域的光學(xué)影像數(shù)據(jù)進(jìn)行波段合成。
13、s4中,利用圖像融合算法nndiffuse?pan?sharpening對養(yǎng)殖區(qū)域的雷達(dá)影像數(shù)據(jù)和養(yǎng)殖區(qū)域的光學(xué)影像數(shù)據(jù)進(jìn)行像元級別的影像融合,通過影像融合將兩種影像數(shù)據(jù)的空間特征和光譜特征進(jìn)行融合,增加影像數(shù)據(jù)的紋理特征,將融合后的影像數(shù)據(jù)和影像數(shù)據(jù)對應(yīng)的標(biāo)簽數(shù)據(jù)統(tǒng)一裁剪成512×512的大小,構(gòu)建gf23b數(shù)據(jù)集。
14、s5中,嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)為兩層嵌套的u型結(jié)構(gòu),包括編碼器、解碼器和顯著性圖融合模塊,編碼器由en_1至en_6六個路邊單元rsu模塊組成,解碼器由de_1至de_5五個路邊單元rsu模塊組成,顯著性圖融合模塊與編碼器和解碼器相連接,采用逐漸相連的方式進(jìn)行特征融合,對編碼器的en_6模塊和解碼器的de_5至de_1模塊進(jìn)行3×3卷積處理和上采樣處理,將輸出圖像處理為與輸入圖像的大小一致,再經(jīng)1×1卷積處理后利用激活函數(shù)sigmoid函數(shù)生成顯著性概率映射圖。
15、rsu-l模塊為高度確定的rsu模塊,l為高度,由輸入特征的空間分辨率決定,en_5模塊的rsu模塊的高度是7,en_6模塊的rsu模塊的高度是4,通過池化操作和上采樣操作將en_5模塊的rsu-7模塊和en_6模塊的rsu-4模塊替換為rsu-4f模塊,f表示擴(kuò)展,通過rsu-4f模塊將中間特征圖的分辨率處理為與輸入特征圖的分辨率相同。
16、s6中,通過在嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的u型結(jié)構(gòu)的內(nèi)部和外部同時添加通道注意力模塊,構(gòu)建u2-net_se2模型。
17、通道注意力模塊為基于全局最大池化和平均池化的se模塊,位于嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的u型結(jié)構(gòu)的編碼器部分的en_1至en_4模塊的結(jié)構(gòu)內(nèi)部和外部。
18、s7中,基于gf23b數(shù)據(jù)集的訓(xùn)練集對u2-net_se2神經(jīng)網(wǎng)絡(luò)模型進(jìn)行模型訓(xùn)練,通過模型自學(xué)習(xí)gf23b數(shù)據(jù)集中影像數(shù)據(jù)的空間特征和光譜特征,預(yù)測養(yǎng)殖區(qū)域的面積和分布,基于gf23b數(shù)據(jù)集的驗(yàn)證集進(jìn)行模型驗(yàn)證,檢驗(yàn)?zāi)P皖A(yù)測精度。
19、相對比現(xiàn)有技術(shù),本專利技術(shù)具有以下有益效果:
20、本專利技術(shù)的養(yǎng)殖區(qū)域預(yù)測方法基于u2-net神經(jīng)網(wǎng)絡(luò)模型的主干網(wǎng)絡(luò)結(jié)構(gòu),進(jìn)行模型結(jié)構(gòu)的修改,將編碼器的en_5-en_6模塊替換為拓展卷積的rsu-4f模塊,通過在殘差u型模塊中添加基于最大池化和平均池化的通道注意力模塊,構(gòu)建u2-net_se2模型,增加了神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)層數(shù)和復(fù)雜度,提高了對養(yǎng)殖區(qū)域預(yù)測的精度。此外本專利技術(shù)對高分2號光學(xué)影像和高分3號sar影像進(jìn)行波段合成和影像融合,構(gòu)建了gf23b數(shù)據(jù)集,能夠綜合利用光學(xué)影像和sar影像的優(yōu)勢,解決了筏式養(yǎng)殖設(shè)施在局部被水淹沒導(dǎo)致其光譜信息較弱,影響?zhàn)B殖區(qū)域預(yù)測精度的問題。
21、對u2-net神經(jīng)網(wǎng)絡(luò)內(nèi)外u型結(jié)構(gòu)同時添加通道注意力模塊構(gòu)成的u2-net_se2模型在筏式養(yǎng)殖區(qū)提取方面結(jié)果優(yōu)異,其對于典型區(qū)域的提取總體精度達(dá)到98.05%,kappa系數(shù)為0.9589,較原始神經(jīng)網(wǎng)絡(luò)分別提升4.32%與0.095。對于弱信號區(qū)域其提取精度達(dá)到96.50%以上,較原始神經(jīng)網(wǎng)絡(luò)提升8.5%以上。
本文檔來自技高網(wǎng)...【技術(shù)保護(hù)點(diǎn)】
1.基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,包括:
2.根據(jù)權(quán)利要求1所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,S1中,對高分3號影像數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理包括輻射定標(biāo)、數(shù)據(jù)轉(zhuǎn)換、多視處理、濾波處理和地理編碼。
3.根據(jù)權(quán)利要求2所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,S3中,對高分2號影像數(shù)據(jù)的數(shù)據(jù)預(yù)處理包括輻射定標(biāo)和大氣校正。
4.根據(jù)權(quán)利要求3所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,S4中,將養(yǎng)殖區(qū)域的雷達(dá)影像數(shù)據(jù)作為一個波段與養(yǎng)殖區(qū)域的光學(xué)影像數(shù)據(jù)進(jìn)行波段合成。
5.根據(jù)權(quán)利要求4所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,S4中,利用圖像融合算法NNDiffuse?Pan?Sharpening對養(yǎng)殖區(qū)域的雷達(dá)影像數(shù)據(jù)和養(yǎng)殖區(qū)域的光學(xué)影像數(shù)據(jù)進(jìn)行像元級別的影像融合,通過影像融合將兩種影像數(shù)據(jù)的空間特征和光譜特征進(jìn)行融合,增加影像數(shù)據(jù)的紋理特征,將融合后的影像數(shù)據(jù)和影像數(shù)據(jù)對應(yīng)的標(biāo)簽數(shù)據(jù)統(tǒng)一裁剪成512×
6.根據(jù)權(quán)利要求5所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,S5中,嵌套UNet神經(jīng)網(wǎng)絡(luò)為兩層嵌套的U型結(jié)構(gòu),包括編碼器、解碼器和顯著性圖融合模塊,編碼器由En_1至En_6六個路邊單元RSU模塊組成,解碼器由De_1至De_5五個路邊單元RSU模塊組成,顯著性圖融合模塊與編碼器和解碼器相連接,采用逐漸相連的方式進(jìn)行特征融合,對編碼器的En_6模塊和解碼器的De_5至De_1模塊進(jìn)行3×3卷積處理和上采樣處理,將輸出圖像處理為與輸入圖像的大小一致,再經(jīng)1×1卷積處理后利用激活函數(shù)Sigmoid函數(shù)生成顯著性概率映射圖。
7.根據(jù)權(quán)利要求6所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,RSU-L模塊為高度確定的RSU模塊,L為高度,由輸入特征的空間分辨率決定,En_5模塊的RSU模塊的高度是7,En_6模塊的RSU模塊的高度是4,通過池化操作和上采樣操作將En_5模塊的RSU-7模塊和En_6模塊的RSU-4模塊替換為RSU-4F模塊,F(xiàn)表示擴(kuò)展,通過RSU-4F模塊將中間特征圖的分辨率處理為與輸入特征圖的分辨率相同。
8.根據(jù)權(quán)利要求7所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,S6中,通過在嵌套UNet神經(jīng)網(wǎng)絡(luò)的U型結(jié)構(gòu)的內(nèi)部和外部同時添加通道注意力模塊,構(gòu)建U2-Net_Se2模型。
9.根據(jù)權(quán)利要求8所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,通道注意力模塊為基于全局最大池化和平均池化的SE模塊,位于嵌套UNet神經(jīng)網(wǎng)絡(luò)的U型結(jié)構(gòu)的編碼器部分的En_1至En_4模塊的結(jié)構(gòu)內(nèi)部和外部。
10.根據(jù)權(quán)利要求9所述的基于改進(jìn)的嵌套UNet神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,S7中,基于GF23B數(shù)據(jù)集的訓(xùn)練集對U2-Net_Se2神經(jīng)網(wǎng)絡(luò)模型進(jìn)行模型訓(xùn)練,通過模型自學(xué)習(xí)GF23B數(shù)據(jù)集中影像數(shù)據(jù)的空間特征和光譜特征,預(yù)測養(yǎng)殖區(qū)域的面積和分布,基于GF23B數(shù)據(jù)集的驗(yàn)證集進(jìn)行模型驗(yàn)證,檢驗(yàn)?zāi)P皖A(yù)測精度。
...【技術(shù)特征摘要】
1.基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,包括:
2.根據(jù)權(quán)利要求1所述的基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,s1中,對高分3號影像數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理包括輻射定標(biāo)、數(shù)據(jù)轉(zhuǎn)換、多視處理、濾波處理和地理編碼。
3.根據(jù)權(quán)利要求2所述的基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,s3中,對高分2號影像數(shù)據(jù)的數(shù)據(jù)預(yù)處理包括輻射定標(biāo)和大氣校正。
4.根據(jù)權(quán)利要求3所述的基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,s4中,將養(yǎng)殖區(qū)域的雷達(dá)影像數(shù)據(jù)作為一個波段與養(yǎng)殖區(qū)域的光學(xué)影像數(shù)據(jù)進(jìn)行波段合成。
5.根據(jù)權(quán)利要求4所述的基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,s4中,利用圖像融合算法nndiffuse?pan?sharpening對養(yǎng)殖區(qū)域的雷達(dá)影像數(shù)據(jù)和養(yǎng)殖區(qū)域的光學(xué)影像數(shù)據(jù)進(jìn)行像元級別的影像融合,通過影像融合將兩種影像數(shù)據(jù)的空間特征和光譜特征進(jìn)行融合,增加影像數(shù)據(jù)的紋理特征,將融合后的影像數(shù)據(jù)和影像數(shù)據(jù)對應(yīng)的標(biāo)簽數(shù)據(jù)統(tǒng)一裁剪成512×512的大小,構(gòu)建gf23b數(shù)據(jù)集。
6.根據(jù)權(quán)利要求5所述的基于改進(jìn)的嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)的養(yǎng)殖區(qū)域預(yù)測方法,其特征在于,s5中,嵌套u(yù)net神經(jīng)網(wǎng)絡(luò)為兩層嵌套的u型結(jié)構(gòu),包括編碼器、解碼器和顯著性圖融合模塊,編碼器由en_1至en_6六個路邊單元rsu模塊組成,解碼器由de_1至de_5五個路邊單元rsu模塊組成,顯著性圖融合模塊與編碼器和解碼器相連接,采用逐漸相連的方式進(jìn)行特征融合,對編碼器的e...
【專利技術(shù)屬性】
技術(shù)研發(fā)人員:蔡玉林,朱嘉琪,侯娟,朱子正,李龍坤,韓廣萌,李穎,田春松,武文章,呂丕賢,
申請(專利權(quán))人:山東科技大學(xué),
類型:發(fā)明
國別省市:
還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。