System.ArgumentOutOfRangeException: 索引和長(zhǎng)度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技術(shù)實(shí)現(xiàn)步驟摘要】
本專利技術(shù)涉及電化學(xué),更具體地,涉及一種基于cnn-lstm-attention模型的soh預(yù)測(cè)方法、系統(tǒng)及可讀存儲(chǔ)介質(zhì)。
技術(shù)介紹
1、電化學(xué)阻抗譜(electrochemical?impedance?spectroscopy,eis)是一種用于表征電池內(nèi)部電化學(xué)過程的測(cè)試方法。通過eis可以測(cè)試得到電池的阻抗譜,包括實(shí)部阻抗和虛部阻抗。電池健康度(state?ofhealth,soh)的衰減會(huì)導(dǎo)致電池內(nèi)阻增加和交流阻抗增大。所以可以通過eis測(cè)試得到的阻抗譜來預(yù)測(cè)電池soh。
2、2022年04月12日公開的中國(guó)專利cn114325403a提供了一種基于電化學(xué)阻抗譜測(cè)試的鋰離子電池壽命檢測(cè)方法和系統(tǒng),該方法包括電化學(xué)阻抗譜測(cè)試步驟、基于神經(jīng)網(wǎng)絡(luò)的阻抗譜學(xué)習(xí)與分析步驟和壽命檢測(cè)步驟,可通過電化學(xué)阻抗譜測(cè)試提高電化學(xué)阻抗譜采樣速率,再利用深度學(xué)習(xí)的圖像識(shí)別算法或預(yù)測(cè)算法對(duì)電化學(xué)阻抗譜進(jìn)行訓(xùn)練,由訓(xùn)練后的模型對(duì)實(shí)時(shí)測(cè)量阻抗譜進(jìn)行分析,辨識(shí)鋰離子電池阻抗譜soh狀態(tài),實(shí)現(xiàn)鋰離子電池的無損檢測(cè),保障檢測(cè)的有效度與可靠性。但是該方案針對(duì)eis數(shù)據(jù)的利用針對(duì)性不強(qiáng),對(duì)soh的預(yù)測(cè)效率有待提升。
技術(shù)實(shí)現(xiàn)思路
1、鑒于上述問題,本專利技術(shù)的目的是提供一種基于cnn-lstm-attention模型的soh預(yù)測(cè)方法、系統(tǒng)及可讀存儲(chǔ)介質(zhì)。
2、本專利技術(shù)第一方面提供了一種基于cnn-lstm-attention模型的soh預(yù)測(cè)方法。所述方法包括以下步驟:
3、測(cè)
4、構(gòu)建并訓(xùn)練cnn-lstm-attention模型;
5、將eis數(shù)據(jù)輸入cnn-lstm-attention模型進(jìn)行soh預(yù)測(cè),并輸出預(yù)測(cè)結(jié)果。
6、優(yōu)選地,所述采集電池eis數(shù)據(jù),具體為:
7、以預(yù)設(shè)的頻率間隔對(duì)電池eis數(shù)據(jù)進(jìn)行采集;
8、采集電池eis數(shù)據(jù)時(shí),記錄每個(gè)頻率對(duì)應(yīng)電池eis數(shù)據(jù)的阻抗的實(shí)部和虛部數(shù)據(jù)。
9、優(yōu)選地,所述cnn-lstm-attention模型包括:輸入層、cnn模型、lstm模型、attention模型、線性回歸層;
10、所述輸入層用于將eis數(shù)據(jù)輸入至cnn模型;
11、cnn模型對(duì)主成分?jǐn)?shù)據(jù)進(jìn)行eis空間特性提取,得到eis空間特征,并將eis空間特征輸出至lstm模型;
12、lstm模型根據(jù)eis空間特征,提取eis的時(shí)間序列變化規(guī)律,再將eis的時(shí)間序列變化規(guī)律輸出至attention模型;
13、attention模型根據(jù)eis的時(shí)間序列變化規(guī)律提取eis空間特征中的關(guān)鍵特征;
14、線性回歸層根據(jù)eis空間特征中的關(guān)鍵特征預(yù)測(cè)電池soh。
15、優(yōu)選地,所述cnn模型包括兩層cnn結(jié)構(gòu)。
16、優(yōu)選地,所述cnn結(jié)構(gòu)包含兩個(gè)卷積層和一個(gè)池化層,卷積層的激活函數(shù)均為relu函數(shù),過濾器數(shù)量設(shè)置為32個(gè),核的尺寸為1,池化層的池化尺寸也為1。
17、優(yōu)選地,所述lstm模型包含一個(gè)lstm層和一個(gè)全連接層,lstm層的神經(jīng)元個(gè)數(shù)為32,全連接層的神經(jīng)元個(gè)數(shù)為16,激活函數(shù)均為relu函數(shù)。
18、優(yōu)選地,所述attention模型根據(jù)eis的時(shí)間序列變化規(guī)律提取eis空間特征中的關(guān)鍵特征,具體為:
19、將eis的時(shí)間序列輸入attention模型,學(xué)習(xí)一個(gè)注意力權(quán)重向量;
20、將注意力權(quán)重應(yīng)用于eis時(shí)間序列中每個(gè)時(shí)間步的隱狀態(tài),并對(duì)其進(jìn)行加權(quán)求和,得到加權(quán)后的eis時(shí)間序列;
21、對(duì)加權(quán)后的eis時(shí)間序列按重要程度進(jìn)行排序,提取eis空間特征中的重要程度大于預(yù)設(shè)的重要程eis數(shù)據(jù)作為的eis空間特征中的關(guān)鍵特征。
22、優(yōu)選地,所述attention模型為bahdanauattention結(jié)構(gòu);
23、bahdanauattention分為encoder和decoder兩個(gè)步驟,計(jì)算公式分別為:
24、(1)encoder:
25、hi=tanh(w[hi-1,xi])
26、oi=softmax(vhi)
27、其中hi表示輸入xi的隱層狀態(tài)向量,oi表示i時(shí)刻隱藏狀態(tài)的歸一化輸出向量,w和v表示待學(xué)習(xí)的權(quán)重矩陣。
28、(2)decoder:
29、第一步,生成t時(shí)刻的語(yǔ)義向量:
30、
31、
32、
33、其中,ct表示t時(shí)刻的語(yǔ)義向量;eti是編碼器中第i時(shí)刻隱層狀態(tài)向量hi對(duì)解碼器中第t時(shí)刻隱層狀態(tài)st的影響程度;αtk表示通過softmax函數(shù)將eti歸一化之后的值,wa表示待學(xué)習(xí)的權(quán)重矩陣,va表示待學(xué)習(xí)的權(quán)重向量,n表示總的時(shí)刻;
34、第二步,傳遞隱層信息并預(yù)測(cè):
35、st=tanh(w[st-1,yt-1,ct])
36、ot=softmax(vst)
37、其中,st表示t時(shí)刻解碼器隱層狀態(tài),yt-1表示t-1個(gè)預(yù)測(cè)目標(biāo),ot表示預(yù)測(cè)分布。
38、優(yōu)選地,所述線性回歸層的激活函數(shù)為linear函數(shù);
39、所述cnn-lstm-attention模型的損失函數(shù)為均方誤差,優(yōu)化器optimizer為rmsprop,評(píng)估指標(biāo)metrics為平均絕對(duì)誤差。
40、本專利技術(shù)第二方面提供了一種基于cnn-lstm-attention模型的soh預(yù)測(cè)系統(tǒng),包括存儲(chǔ)器和處理器,所述存儲(chǔ)器中包括基于cnn-lstm-attention模型的soh預(yù)測(cè)方法程序,所述基于cnn-lstm-attention模型的soh預(yù)測(cè)方法程序被所述處理器執(zhí)行時(shí)實(shí)現(xiàn)所述一種基于cnn-lstm-attention模型的soh預(yù)測(cè)方法的步驟。
41、本專利技術(shù)第三方面提供了一種可讀存儲(chǔ)介質(zhì),所述可讀存儲(chǔ)介質(zhì)中包括基于cnn-lstm-attention模型的soh預(yù)測(cè)方法程序,所述基于cnn-lstm-attention模型的soh預(yù)測(cè)方法程序被處理器執(zhí)行時(shí),實(shí)現(xiàn)所述一種基于cnn-lstm-attention模型的soh預(yù)測(cè)方法的步驟。
42、與現(xiàn)有技術(shù)相比,本專利技術(shù)技術(shù)方案的有益效果是:本專利技術(shù)通過將cnn、lstm和attention模型進(jìn)行組合,基于eis數(shù)據(jù),共同預(yù)測(cè)soh。將eis視為特征,每個(gè)頻率對(duì)應(yīng)的阻抗數(shù)據(jù)的實(shí)部和虛部作為特征值。使用cnn模型提取阻抗譜的空間特征,使用lstm模型提取阻抗譜的時(shí)間序列變化規(guī)律,使用attention進(jìn)一步選取eis數(shù)據(jù)的時(shí)空特征中的重要部分,共同預(yù)測(cè)soh。以增加模型對(duì)數(shù)據(jù)處理的針對(duì)性,以提高soh預(yù)測(cè)的效率。
本文檔來自技高網(wǎng)...【技術(shù)保護(hù)點(diǎn)】
1.一種基于CNN-LSTM-Attention模型的SOH預(yù)測(cè)方法,其特征在于,所述方法包括以下步驟:
2.根據(jù)權(quán)利要求1所述的一種基于CNN-LSTM-Attention模型的SOH預(yù)測(cè)方法,其特征在于,所述CNN-LSTM-Attention模型包括:輸入層、CNN模型、LSTM模型、Attention模型、線性回歸層;
3.根據(jù)權(quán)利要求2所述的一種基于CNN-LSTM-Attention模型的SOH預(yù)測(cè)方法,其特征在于,所述CNN模型包括兩層CNN結(jié)構(gòu)。
4.根據(jù)權(quán)利要求3所述的一種基于CNN-LSTM-Attention模型的SOH預(yù)測(cè)方法,其特征在于,所述CNN結(jié)構(gòu)包含兩個(gè)卷積層和一個(gè)池化層,卷積層的激活函數(shù)均為relu函數(shù),過濾器數(shù)量設(shè)置為32個(gè),核的尺寸為1,池化層的池化尺寸也為1。
5.根據(jù)權(quán)利要求4所述的一種基于CNN-LSTM-Attention模型的SOH預(yù)測(cè)方法,其特征在于,所述LSTM模型包含一個(gè)LSTM層和一個(gè)全連接層,LSTM層的神經(jīng)元個(gè)數(shù)為32,全連接層的神經(jīng)元個(gè)數(shù)為16,激活函數(shù)均為relu函數(shù)。
6.根據(jù)權(quán)利要求5所述的一種基于CNN-LSTM-Attention模型的SOH預(yù)測(cè)方法,其特征在于,所述Attention模型根據(jù)EIS的時(shí)間序列變化規(guī)律提取EIS空間特征中的關(guān)鍵特征,具體為:
7.根據(jù)權(quán)利要求4所述的一種基于CNN-LSTM-Attention模型的SOH預(yù)測(cè)方法,其特征在于,所述Attention模型為BahdanauAttention結(jié)構(gòu);
8.根據(jù)權(quán)利要求7所述的一種基于CNN-LSTM-Attention模型的SOH預(yù)測(cè)方法,其特征在于,所述線性回歸層的激活函數(shù)為linear函數(shù);
9.一種基于CNN-LSTM-Attention模型的SOH預(yù)測(cè)系統(tǒng),其特征在于,包括存儲(chǔ)器和處理器,所述存儲(chǔ)器中包括基于CNN-LSTM-Attention模型的SOH預(yù)測(cè)方法程序,所述基于CNN-LSTM-Attention模型的SOH預(yù)測(cè)方法程序被所述處理器執(zhí)行時(shí)實(shí)現(xiàn)如下權(quán)利要求1-8任一項(xiàng)所述的一種基于CNN-LSTM-Attention模型的SOH預(yù)測(cè)方法的步驟。
10.一種可讀存儲(chǔ)介質(zhì),其特征在于,所述可讀存儲(chǔ)介質(zhì)中包括基于CNN-LSTM-Attention模型的SOH預(yù)測(cè)方法程序,所述基于CNN-LSTM-Attention模型的SOH預(yù)測(cè)方法程序被處理器執(zhí)行時(shí),實(shí)現(xiàn)如權(quán)利要求1至8中任一項(xiàng)所述的一種基于CNN-LSTM-Attention模型的SOH預(yù)測(cè)方法的步驟。
...【技術(shù)特征摘要】
1.一種基于cnn-lstm-attention模型的soh預(yù)測(cè)方法,其特征在于,所述方法包括以下步驟:
2.根據(jù)權(quán)利要求1所述的一種基于cnn-lstm-attention模型的soh預(yù)測(cè)方法,其特征在于,所述cnn-lstm-attention模型包括:輸入層、cnn模型、lstm模型、attention模型、線性回歸層;
3.根據(jù)權(quán)利要求2所述的一種基于cnn-lstm-attention模型的soh預(yù)測(cè)方法,其特征在于,所述cnn模型包括兩層cnn結(jié)構(gòu)。
4.根據(jù)權(quán)利要求3所述的一種基于cnn-lstm-attention模型的soh預(yù)測(cè)方法,其特征在于,所述cnn結(jié)構(gòu)包含兩個(gè)卷積層和一個(gè)池化層,卷積層的激活函數(shù)均為relu函數(shù),過濾器數(shù)量設(shè)置為32個(gè),核的尺寸為1,池化層的池化尺寸也為1。
5.根據(jù)權(quán)利要求4所述的一種基于cnn-lstm-attention模型的soh預(yù)測(cè)方法,其特征在于,所述lstm模型包含一個(gè)lstm層和一個(gè)全連接層,lstm層的神經(jīng)元個(gè)數(shù)為32,全連接層的神經(jīng)元個(gè)數(shù)為16,激活函數(shù)均為relu函數(shù)。
6.根據(jù)權(quán)利要求5所述的一種基于cnn-lstm-attention模型的soh預(yù)測(cè)方法,其特征在于,所述attention模...
【專利技術(shù)屬性】
技術(shù)研發(fā)人員:常偉,
申請(qǐng)(專利權(quán))人:上海覺云科技有限公司,
類型:發(fā)明
國(guó)別省市:
還沒有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。