System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技術(shù)實(shí)現(xiàn)步驟摘要】
本專利技術(shù)屬于數(shù)字預(yù)失真,具體涉及一種基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法。
技術(shù)介紹
1、自第五代5g通信系統(tǒng)問世以來,高容量和高速度已成為通信網(wǎng)絡(luò)的顯著特征,以滿足客戶不斷升級(jí)的需求。雖然功率放大器(power?amplifier,pa)是無線通信系統(tǒng)的重要組成部分,但其記憶效應(yīng)和高度非線性行為會(huì)導(dǎo)致頻譜再生和傳輸質(zhì)量下降。對(duì)于功放來說,功放的效率和線性度之間是相互矛盾的,所以要想在高效率的條件下實(shí)現(xiàn)更好地進(jìn)行功放,線性化技術(shù)在通信過程中是不可或缺的。為解決這一問題,人們提出了許多線性化技術(shù),如反饋、前饋、數(shù)字預(yù)失真(digital?pre-distortion,dpd)等。其中數(shù)字預(yù)失真能夠處理更高頻帶信號(hào)的非線性功放,并且效率高,所以被認(rèn)為是目前解決非線性功放的最佳方法之一,數(shù)字預(yù)失真技術(shù)可以通過在功放之前建立反向行為模型來補(bǔ)償功放的非線性失真,具有高效率和靈活性。
2、但是,傳統(tǒng)的數(shù)字預(yù)失真技術(shù)大多數(shù)是基于記憶多項(xiàng)式,去不斷調(diào)整公式中的參數(shù)來使其逼近非線性的系統(tǒng)響應(yīng),所以對(duì)于不同的功率放大器,需要去針對(duì)性地調(diào)整不同的參數(shù),例如記憶深度、非線性階數(shù)等,這是一個(gè)十分耗時(shí)費(fèi)力的過程,通用性不佳。隨著更高帶寬的調(diào)制信號(hào)的出現(xiàn),傳統(tǒng)的數(shù)字預(yù)失真技術(shù)已經(jīng)不能夠滿足實(shí)驗(yàn)需求,如何準(zhǔn)確地對(duì)功放非線性進(jìn)行準(zhǔn)確建模已成為了一大難點(diǎn)。
3、因此,亟需一種基于神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)數(shù)字預(yù)失真的方法。
技術(shù)實(shí)現(xiàn)思路
1、為了解決現(xiàn)有技術(shù)中的問題,本專利技術(shù)采用神經(jīng)網(wǎng)絡(luò)對(duì)功放的非線性行為進(jìn)行建
2、本專利技術(shù)提供的一種基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,包括以下步驟:
3、步驟1,輸入信號(hào)x(n)首先通過數(shù)字預(yù)失真模型,在預(yù)失真未更新時(shí),輸入信號(hào)x(n)未改變,然后通過數(shù)模轉(zhuǎn)換器,數(shù)模轉(zhuǎn)換器輸出的模擬信號(hào)經(jīng)過上變頻模塊后傳送至功率放大器,在反饋回路中,將耦合輸出傳送至下變頻模塊,再通過模數(shù)轉(zhuǎn)換器和數(shù)字解調(diào)器捕獲反饋信號(hào)得到y(tǒng)(n),
4、步驟2,通過對(duì)輸入信號(hào)x(n)進(jìn)行重塑,得到神經(jīng)網(wǎng)絡(luò)的輸入向量i(n)和q(n)兩路信號(hào),
5、步驟3,使用神經(jīng)網(wǎng)絡(luò)去建模功放模型,即本專利技術(shù)提出的神經(jīng)網(wǎng)絡(luò)模型,輸入信號(hào)i(n)、q(n)以及y(n)的作用是建立神經(jīng)網(wǎng)絡(luò)功放模型,
6、步驟4,將神經(jīng)網(wǎng)絡(luò)功放模型輸出的iout(n)和qout(n)輸入至系數(shù)估計(jì)器中,通過系數(shù)估計(jì)器中得到的預(yù)失真系數(shù)不斷更新數(shù)字預(yù)失真模型,實(shí)現(xiàn)數(shù)字預(yù)失真。
7、進(jìn)一步地,所述神經(jīng)網(wǎng)絡(luò)功放模型由一個(gè)輸入層、三個(gè)完全互聯(lián)的隱藏層和一個(gè)線性輸出的回歸層組成。
8、優(yōu)選地,所述神經(jīng)網(wǎng)絡(luò)模型中的訓(xùn)練集和測試集比例為7:3,即整個(gè)數(shù)據(jù)集的70%用于神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練,另外30%用于神經(jīng)網(wǎng)絡(luò)模型的測試。
9、進(jìn)一步地,所述輸入信號(hào)x(n)分為i、q兩路輸入信號(hào),對(duì)輸入信號(hào)x(n)進(jìn)行信號(hào)重塑,得到神經(jīng)網(wǎng)絡(luò)的輸入信號(hào)in和qn的具體步驟為:
10、對(duì)i和q兩路輸入信號(hào)進(jìn)行級(jí)數(shù)擴(kuò)展并與信號(hào)包絡(luò)的奇次階進(jìn)行乘積,得到fi(n-mi)和fq(n-mq),再對(duì)其進(jìn)行延時(shí)處理并組合為in和qn,初始輸入表示如下:
11、in=[fi(n),fi(n-1),…fi(n-mi)]
12、qn=[fq(n),fq(n-1),…fq(n-mq)]
13、
14、
15、其中,變量mi和mq分別代表i和q兩路輸入信號(hào)的記憶深度,變量k代表i和q兩路輸入信號(hào)的非線性擴(kuò)展階數(shù),并限制為奇數(shù)階,
16、再對(duì)in和qn的進(jìn)一步延時(shí)處理并組合得到輸入信號(hào)in和qn,表示如下:
17、in=[in,in-1,…in-t]
18、qn=[qn,qn-1,…qn-t]
19、其中,t代表延遲單元的數(shù)量。
20、進(jìn)一步地,所述神經(jīng)網(wǎng)絡(luò)采用輸入層、隱藏層和輸出層以及每層中的神經(jīng)元建立。
21、進(jìn)一步地,每個(gè)所述神經(jīng)元產(chǎn)生的是輸入信號(hào)與權(quán)值的乘積與偏置的和,表示如下:
22、
23、其中,當(dāng)前層的第α個(gè)神經(jīng)元用α表示,β表示前一層的神經(jīng)元,l表示第l層。是連接第(l-1)層第β個(gè)神經(jīng)元和第l層第α個(gè)神經(jīng)元的權(quán)重,而是第(l-1)層的第β個(gè)神經(jīng)元的輸入信號(hào),代表第l層第α個(gè)神經(jīng)元的偏置。
24、進(jìn)一步地,采用非線性leakyrelu激活函數(shù)激活各隱藏層,任意層的輸出表示如下:
25、
26、其中,激活函數(shù)的斜率為0.01。
27、進(jìn)一步地,在神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練過程中,采用levenberg-marquardt(lm)算法來優(yōu)化神經(jīng)網(wǎng)絡(luò)的連接權(quán)重,lm算法的具體步驟如下:
28、給定神經(jīng)網(wǎng)絡(luò)迭代產(chǎn)生的權(quán)重和閾值向量,第k次表示為w(k),第k+1次表示為w(k+1),更新神經(jīng)網(wǎng)絡(luò)參數(shù)的公式如下:
29、w(k+1)=w(k)-[jt(w)j(w)+λi]-1j(w)e(w)
30、其中,λ是縮放因子,為常數(shù),在每次迭代中都會(huì)進(jìn)行自我調(diào)整;i是單位矩陣;e(w)表示誤差向量,它包含了神經(jīng)網(wǎng)絡(luò)模型預(yù)測值與實(shí)際值之間的差異,j(w)是雅可比矩陣,表示如下:
31、
32、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)的整個(gè)過程中,設(shè)置的訓(xùn)練參數(shù)包括:迭代次數(shù)設(shè)置為100次,最小批量為10次,初始學(xué)習(xí)率為1e-4,學(xué)習(xí)率下降因子為0.95,學(xué)習(xí)率下降周期為1。
33、進(jìn)一步地,所述神經(jīng)網(wǎng)絡(luò)功放模型為交叉奇次階增強(qiáng)實(shí)值時(shí)延神經(jīng)網(wǎng)絡(luò)模型。
34、與現(xiàn)有技術(shù)相比,本專利技術(shù)所提出的神經(jīng)網(wǎng)絡(luò)模型的輸入信號(hào)除了信號(hào)的同相和正交分量之外,還包括同相和正交分量進(jìn)行延遲抽頭處理后與包絡(luò)奇次階的交叉乘積項(xiàng),豐富了輸入信號(hào)的基函數(shù),提升了神經(jīng)網(wǎng)絡(luò)模型的性能,最后,經(jīng)過神經(jīng)網(wǎng)絡(luò)訓(xùn)練模塊進(jìn)行訓(xùn)練后,所得到的預(yù)失真效果更佳。
35、不僅如此,本專利技術(shù)所提出的神經(jīng)網(wǎng)絡(luò)功放模型建模時(shí)間短,建模精度高;本專利技術(shù)采用了lm算法,與梯度下降法相比,lm算法收斂速度更快、效率更高、訓(xùn)練精度更高,并能緩解訓(xùn)練函數(shù)陷入局部極小值和存在重復(fù)參數(shù)等問題;對(duì)于短波信號(hào)的預(yù)失真效果,nmse和imd指標(biāo)常用于評(píng)估短波信號(hào)的功效,就nmse而言,本專利技術(shù)提出模型的nmse值為-32.94db,與lstm、bilstm和arvtdnn模型相比,本專利技術(shù)提出的模型分別改善了約7db、15db和4db;在互調(diào)方面,本專利技術(shù)提出的模型對(duì)imd3的抑制更為明顯,為-25.49dbc,與上述三種模型相比,它分別降低了約8.61dbc、14.76dbc和2.18dbc,此外,imd5和imd7也有一定改善。
本文檔來自技高網(wǎng)...【技術(shù)保護(hù)點(diǎn)】
1.一種基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,包括以下步驟:
2.根據(jù)權(quán)利要求1所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述神經(jīng)網(wǎng)絡(luò)功放模型由一個(gè)輸入層、三個(gè)完全互聯(lián)的隱藏層和一個(gè)線性輸出的回歸層組成。
3.根據(jù)權(quán)利要求1所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述神經(jīng)網(wǎng)絡(luò)功放模型中的訓(xùn)練集和測試集比例為7:3,即整個(gè)數(shù)據(jù)集的70%用于神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練,另外30%用于神經(jīng)網(wǎng)絡(luò)模型的測試。
4.根據(jù)權(quán)利要求1所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述輸入信號(hào)x(n)分為I、Q兩路輸入信號(hào),對(duì)輸入信號(hào)x(n)進(jìn)行信號(hào)重塑,得到神經(jīng)網(wǎng)絡(luò)的輸入信號(hào)In和Qn的具體步驟為:
5.根據(jù)權(quán)利要求2所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述神經(jīng)網(wǎng)絡(luò)采用輸入層、隱藏層和輸出層以及每層中的神經(jīng)元建立。
6.根據(jù)權(quán)利要求5所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,每個(gè)所述神經(jīng)元產(chǎn)生的是輸入信號(hào)與權(quán)值的乘積與偏置的和,表示如下:
7.根據(jù)權(quán)利要求6所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,采用非線性leak
8.根據(jù)權(quán)利要求1所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,在神經(jīng)網(wǎng)絡(luò)功放模型的訓(xùn)練過程中,采用Levenberg-Marquardt算法來優(yōu)化神經(jīng)網(wǎng)絡(luò)的連接權(quán)重,Levenberg-Marquardt算法的具體步驟如下:
9.根據(jù)權(quán)利要求1-8任一項(xiàng)所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述神經(jīng)網(wǎng)絡(luò)功放模型為交叉奇數(shù)階增強(qiáng)實(shí)值時(shí)延神經(jīng)網(wǎng)絡(luò)模型。
...【技術(shù)特征摘要】
1.一種基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,包括以下步驟:
2.根據(jù)權(quán)利要求1所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述神經(jīng)網(wǎng)絡(luò)功放模型由一個(gè)輸入層、三個(gè)完全互聯(lián)的隱藏層和一個(gè)線性輸出的回歸層組成。
3.根據(jù)權(quán)利要求1所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述神經(jīng)網(wǎng)絡(luò)功放模型中的訓(xùn)練集和測試集比例為7:3,即整個(gè)數(shù)據(jù)集的70%用于神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練,另外30%用于神經(jīng)網(wǎng)絡(luò)模型的測試。
4.根據(jù)權(quán)利要求1所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述輸入信號(hào)x(n)分為i、q兩路輸入信號(hào),對(duì)輸入信號(hào)x(n)進(jìn)行信號(hào)重塑,得到神經(jīng)網(wǎng)絡(luò)的輸入信號(hào)in和qn的具體步驟為:
5.根據(jù)權(quán)利要求2所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述神經(jīng)網(wǎng)絡(luò)采用輸...
【專利技術(shù)屬性】
技術(shù)研發(fā)人員:任繼軍,馬志成,馮永乾,劉琪,王興,趙勇,鄭航,康凱,張濤,
申請(qǐng)(專利權(quán))人:西安烽火電子科技有限責(zé)任公司,
類型:發(fā)明
國別省市:
還沒有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。