System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 亚洲av永久无码精品表情包,精品一区二区三区无码免费视频 ,无码熟妇人妻AV影音先锋
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法技術(shù)

    技術(shù)編號(hào):42400593 閱讀:16 留言:0更新日期:2024-08-16 16:22
    本發(fā)明專利技術(shù)公開了基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,包括步驟1,輸入信號(hào)x(n)首先通過數(shù)字預(yù)失真模型,然后通過數(shù)模轉(zhuǎn)換器輸出的模擬信號(hào)經(jīng)過上變頻模塊后傳送至功率放大器,在反饋回路中,將耦合輸出傳送至下變頻模塊,再通過模數(shù)轉(zhuǎn)換器和數(shù)字解調(diào)器捕獲反饋信號(hào)得到y(tǒng)(n),步驟2,通過對(duì)輸入信號(hào)x(n)進(jìn)行重塑,得到神經(jīng)網(wǎng)絡(luò)的輸入信號(hào)I(n)和Q(n),步驟3,使用神經(jīng)網(wǎng)絡(luò)去建模功放模型,輸入I(n),Q(n)以及y(n)的作用是建立神經(jīng)網(wǎng)絡(luò)功放模型,步驟4,將神經(jīng)網(wǎng)絡(luò)功放模型輸出的I<subgt;out</subgt;(n)和Q<subgt;out</subgt;(n)信號(hào)輸入至系數(shù)估計(jì)器中,通過系數(shù)估計(jì)器中得到的預(yù)失真系數(shù)來更新數(shù)字預(yù)失真模型,實(shí)現(xiàn)數(shù)字預(yù)失真。本發(fā)明專利技術(shù)為基于交叉奇次階增強(qiáng)實(shí)值時(shí)延神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)預(yù)失真的方法,預(yù)失真效果更佳。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)屬于數(shù)字預(yù)失真,具體涉及一種基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法


    技術(shù)介紹

    1、自第五代5g通信系統(tǒng)問世以來,高容量和高速度已成為通信網(wǎng)絡(luò)的顯著特征,以滿足客戶不斷升級(jí)的需求。雖然功率放大器(power?amplifier,pa)是無線通信系統(tǒng)的重要組成部分,但其記憶效應(yīng)和高度非線性行為會(huì)導(dǎo)致頻譜再生和傳輸質(zhì)量下降。對(duì)于功放來說,功放的效率和線性度之間是相互矛盾的,所以要想在高效率的條件下實(shí)現(xiàn)更好地進(jìn)行功放,線性化技術(shù)在通信過程中是不可或缺的。為解決這一問題,人們提出了許多線性化技術(shù),如反饋、前饋、數(shù)字預(yù)失真(digital?pre-distortion,dpd)等。其中數(shù)字預(yù)失真能夠處理更高頻帶信號(hào)的非線性功放,并且效率高,所以被認(rèn)為是目前解決非線性功放的最佳方法之一,數(shù)字預(yù)失真技術(shù)可以通過在功放之前建立反向行為模型來補(bǔ)償功放的非線性失真,具有高效率和靈活性。

    2、但是,傳統(tǒng)的數(shù)字預(yù)失真技術(shù)大多數(shù)是基于記憶多項(xiàng)式,去不斷調(diào)整公式中的參數(shù)來使其逼近非線性的系統(tǒng)響應(yīng),所以對(duì)于不同的功率放大器,需要去針對(duì)性地調(diào)整不同的參數(shù),例如記憶深度、非線性階數(shù)等,這是一個(gè)十分耗時(shí)費(fèi)力的過程,通用性不佳。隨著更高帶寬的調(diào)制信號(hào)的出現(xiàn),傳統(tǒng)的數(shù)字預(yù)失真技術(shù)已經(jīng)不能夠滿足實(shí)驗(yàn)需求,如何準(zhǔn)確地對(duì)功放非線性進(jìn)行準(zhǔn)確建模已成為了一大難點(diǎn)。

    3、因此,亟需一種基于神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)數(shù)字預(yù)失真的方法。


    技術(shù)實(shí)現(xiàn)思路

    1、為了解決現(xiàn)有技術(shù)中的問題,本專利技術(shù)采用神經(jīng)網(wǎng)絡(luò)對(duì)功放的非線性行為進(jìn)行建模研究,提出了一種交叉奇次階增強(qiáng)實(shí)值時(shí)延神經(jīng)網(wǎng)絡(luò)模型,所提出的神經(jīng)網(wǎng)絡(luò)模型的輸入信號(hào)除了信號(hào)的同相和正交分量之外,還包括同相和正交分量進(jìn)行延遲抽頭處理后與包絡(luò)奇次階的交叉乘積項(xiàng),豐富了輸入信號(hào)的基函數(shù),提升了神經(jīng)網(wǎng)絡(luò)模型的性能。

    2、本專利技術(shù)提供的一種基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,包括以下步驟:

    3、步驟1,輸入信號(hào)x(n)首先通過數(shù)字預(yù)失真模型,在預(yù)失真未更新時(shí),輸入信號(hào)x(n)未改變,然后通過數(shù)模轉(zhuǎn)換器,數(shù)模轉(zhuǎn)換器輸出的模擬信號(hào)經(jīng)過上變頻模塊后傳送至功率放大器,在反饋回路中,將耦合輸出傳送至下變頻模塊,再通過模數(shù)轉(zhuǎn)換器和數(shù)字解調(diào)器捕獲反饋信號(hào)得到y(tǒng)(n),

    4、步驟2,通過對(duì)輸入信號(hào)x(n)進(jìn)行重塑,得到神經(jīng)網(wǎng)絡(luò)的輸入向量i(n)和q(n)兩路信號(hào),

    5、步驟3,使用神經(jīng)網(wǎng)絡(luò)去建模功放模型,即本專利技術(shù)提出的神經(jīng)網(wǎng)絡(luò)模型,輸入信號(hào)i(n)、q(n)以及y(n)的作用是建立神經(jīng)網(wǎng)絡(luò)功放模型,

    6、步驟4,將神經(jīng)網(wǎng)絡(luò)功放模型輸出的iout(n)和qout(n)輸入至系數(shù)估計(jì)器中,通過系數(shù)估計(jì)器中得到的預(yù)失真系數(shù)不斷更新數(shù)字預(yù)失真模型,實(shí)現(xiàn)數(shù)字預(yù)失真。

    7、進(jìn)一步地,所述神經(jīng)網(wǎng)絡(luò)功放模型由一個(gè)輸入層、三個(gè)完全互聯(lián)的隱藏層和一個(gè)線性輸出的回歸層組成。

    8、優(yōu)選地,所述神經(jīng)網(wǎng)絡(luò)模型中的訓(xùn)練集和測試集比例為7:3,即整個(gè)數(shù)據(jù)集的70%用于神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練,另外30%用于神經(jīng)網(wǎng)絡(luò)模型的測試。

    9、進(jìn)一步地,所述輸入信號(hào)x(n)分為i、q兩路輸入信號(hào),對(duì)輸入信號(hào)x(n)進(jìn)行信號(hào)重塑,得到神經(jīng)網(wǎng)絡(luò)的輸入信號(hào)in和qn的具體步驟為:

    10、對(duì)i和q兩路輸入信號(hào)進(jìn)行級(jí)數(shù)擴(kuò)展并與信號(hào)包絡(luò)的奇次階進(jìn)行乘積,得到fi(n-mi)和fq(n-mq),再對(duì)其進(jìn)行延時(shí)處理并組合為in和qn,初始輸入表示如下:

    11、in=[fi(n),fi(n-1),…fi(n-mi)]

    12、qn=[fq(n),fq(n-1),…fq(n-mq)]

    13、

    14、

    15、其中,變量mi和mq分別代表i和q兩路輸入信號(hào)的記憶深度,變量k代表i和q兩路輸入信號(hào)的非線性擴(kuò)展階數(shù),并限制為奇數(shù)階,

    16、再對(duì)in和qn的進(jìn)一步延時(shí)處理并組合得到輸入信號(hào)in和qn,表示如下:

    17、in=[in,in-1,…in-t]

    18、qn=[qn,qn-1,…qn-t]

    19、其中,t代表延遲單元的數(shù)量。

    20、進(jìn)一步地,所述神經(jīng)網(wǎng)絡(luò)采用輸入層、隱藏層和輸出層以及每層中的神經(jīng)元建立。

    21、進(jìn)一步地,每個(gè)所述神經(jīng)元產(chǎn)生的是輸入信號(hào)與權(quán)值的乘積與偏置的和,表示如下:

    22、

    23、其中,當(dāng)前層的第α個(gè)神經(jīng)元用α表示,β表示前一層的神經(jīng)元,l表示第l層。是連接第(l-1)層第β個(gè)神經(jīng)元和第l層第α個(gè)神經(jīng)元的權(quán)重,而是第(l-1)層的第β個(gè)神經(jīng)元的輸入信號(hào),代表第l層第α個(gè)神經(jīng)元的偏置。

    24、進(jìn)一步地,采用非線性leakyrelu激活函數(shù)激活各隱藏層,任意層的輸出表示如下:

    25、

    26、其中,激活函數(shù)的斜率為0.01。

    27、進(jìn)一步地,在神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練過程中,采用levenberg-marquardt(lm)算法來優(yōu)化神經(jīng)網(wǎng)絡(luò)的連接權(quán)重,lm算法的具體步驟如下:

    28、給定神經(jīng)網(wǎng)絡(luò)迭代產(chǎn)生的權(quán)重和閾值向量,第k次表示為w(k),第k+1次表示為w(k+1),更新神經(jīng)網(wǎng)絡(luò)參數(shù)的公式如下:

    29、w(k+1)=w(k)-[jt(w)j(w)+λi]-1j(w)e(w)

    30、其中,λ是縮放因子,為常數(shù),在每次迭代中都會(huì)進(jìn)行自我調(diào)整;i是單位矩陣;e(w)表示誤差向量,它包含了神經(jīng)網(wǎng)絡(luò)模型預(yù)測值與實(shí)際值之間的差異,j(w)是雅可比矩陣,表示如下:

    31、

    32、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)的整個(gè)過程中,設(shè)置的訓(xùn)練參數(shù)包括:迭代次數(shù)設(shè)置為100次,最小批量為10次,初始學(xué)習(xí)率為1e-4,學(xué)習(xí)率下降因子為0.95,學(xué)習(xí)率下降周期為1。

    33、進(jìn)一步地,所述神經(jīng)網(wǎng)絡(luò)功放模型為交叉奇次階增強(qiáng)實(shí)值時(shí)延神經(jīng)網(wǎng)絡(luò)模型。

    34、與現(xiàn)有技術(shù)相比,本專利技術(shù)所提出的神經(jīng)網(wǎng)絡(luò)模型的輸入信號(hào)除了信號(hào)的同相和正交分量之外,還包括同相和正交分量進(jìn)行延遲抽頭處理后與包絡(luò)奇次階的交叉乘積項(xiàng),豐富了輸入信號(hào)的基函數(shù),提升了神經(jīng)網(wǎng)絡(luò)模型的性能,最后,經(jīng)過神經(jīng)網(wǎng)絡(luò)訓(xùn)練模塊進(jìn)行訓(xùn)練后,所得到的預(yù)失真效果更佳。

    35、不僅如此,本專利技術(shù)所提出的神經(jīng)網(wǎng)絡(luò)功放模型建模時(shí)間短,建模精度高;本專利技術(shù)采用了lm算法,與梯度下降法相比,lm算法收斂速度更快、效率更高、訓(xùn)練精度更高,并能緩解訓(xùn)練函數(shù)陷入局部極小值和存在重復(fù)參數(shù)等問題;對(duì)于短波信號(hào)的預(yù)失真效果,nmse和imd指標(biāo)常用于評(píng)估短波信號(hào)的功效,就nmse而言,本專利技術(shù)提出模型的nmse值為-32.94db,與lstm、bilstm和arvtdnn模型相比,本專利技術(shù)提出的模型分別改善了約7db、15db和4db;在互調(diào)方面,本專利技術(shù)提出的模型對(duì)imd3的抑制更為明顯,為-25.49dbc,與上述三種模型相比,它分別降低了約8.61dbc、14.76dbc和2.18dbc,此外,imd5和imd7也有一定改善。

    本文檔來自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】

    1.一種基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,包括以下步驟:

    2.根據(jù)權(quán)利要求1所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述神經(jīng)網(wǎng)絡(luò)功放模型由一個(gè)輸入層、三個(gè)完全互聯(lián)的隱藏層和一個(gè)線性輸出的回歸層組成。

    3.根據(jù)權(quán)利要求1所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述神經(jīng)網(wǎng)絡(luò)功放模型中的訓(xùn)練集和測試集比例為7:3,即整個(gè)數(shù)據(jù)集的70%用于神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練,另外30%用于神經(jīng)網(wǎng)絡(luò)模型的測試。

    4.根據(jù)權(quán)利要求1所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述輸入信號(hào)x(n)分為I、Q兩路輸入信號(hào),對(duì)輸入信號(hào)x(n)進(jìn)行信號(hào)重塑,得到神經(jīng)網(wǎng)絡(luò)的輸入信號(hào)In和Qn的具體步驟為:

    5.根據(jù)權(quán)利要求2所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述神經(jīng)網(wǎng)絡(luò)采用輸入層、隱藏層和輸出層以及每層中的神經(jīng)元建立。

    6.根據(jù)權(quán)利要求5所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,每個(gè)所述神經(jīng)元產(chǎn)生的是輸入信號(hào)與權(quán)值的乘積與偏置的和,表示如下:

    7.根據(jù)權(quán)利要求6所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,采用非線性leakyRelu激活函數(shù)激活各隱藏層,任意層的輸出表示如下:

    8.根據(jù)權(quán)利要求1所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,在神經(jīng)網(wǎng)絡(luò)功放模型的訓(xùn)練過程中,采用Levenberg-Marquardt算法來優(yōu)化神經(jīng)網(wǎng)絡(luò)的連接權(quán)重,Levenberg-Marquardt算法的具體步驟如下:

    9.根據(jù)權(quán)利要求1-8任一項(xiàng)所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述神經(jīng)網(wǎng)絡(luò)功放模型為交叉奇數(shù)階增強(qiáng)實(shí)值時(shí)延神經(jīng)網(wǎng)絡(luò)模型。

    ...

    【技術(shù)特征摘要】

    1.一種基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,包括以下步驟:

    2.根據(jù)權(quán)利要求1所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述神經(jīng)網(wǎng)絡(luò)功放模型由一個(gè)輸入層、三個(gè)完全互聯(lián)的隱藏層和一個(gè)線性輸出的回歸層組成。

    3.根據(jù)權(quán)利要求1所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述神經(jīng)網(wǎng)絡(luò)功放模型中的訓(xùn)練集和測試集比例為7:3,即整個(gè)數(shù)據(jù)集的70%用于神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練,另外30%用于神經(jīng)網(wǎng)絡(luò)模型的測試。

    4.根據(jù)權(quán)利要求1所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述輸入信號(hào)x(n)分為i、q兩路輸入信號(hào),對(duì)輸入信號(hào)x(n)進(jìn)行信號(hào)重塑,得到神經(jīng)網(wǎng)絡(luò)的輸入信號(hào)in和qn的具體步驟為:

    5.根據(jù)權(quán)利要求2所述的基于神經(jīng)網(wǎng)絡(luò)的預(yù)失真方法,其特征在于,所述神經(jīng)網(wǎng)絡(luò)采用輸...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:任繼軍馬志成馮永乾劉琪王興趙勇鄭航康凱張濤
    申請(qǐng)(專利權(quán))人:西安烽火電子科技有限責(zé)任公司
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評(píng)論
    • 還沒有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。

    1
    主站蜘蛛池模板: 人妻丰满熟妇AV无码区| 日木av无码专区亚洲av毛片| 日韩精品无码久久久久久| 人妻av无码一区二区三区| AAA级久久久精品无码片| 国产精品毛片无码| 18禁免费无码无遮挡不卡网站| 亚洲国产av无码精品| 最新中文字幕av无码专区| 成人无码a级毛片免费| 精品韩国亚洲av无码不卡区| 亚洲av无码无在线观看红杏| 无码人妻精品一区二区三区99不卡| 无码乱人伦一区二区亚洲一| 免费人妻av无码专区| 亚洲一区二区无码偷拍| 久久久久久AV无码免费网站 | 亚洲A∨无码一区二区三区| 国产精品爽爽V在线观看无码| 18禁免费无码无遮挡不卡网站 | 亚洲AV成人无码网天堂| 亚洲熟妇无码另类久久久| 影院无码人妻精品一区二区| 亚洲AV无码一区二区乱子仑 | 中文午夜人妻无码看片| 无码人妻精品一区二区三| 亚洲Av无码专区国产乱码DVD| 精品无码综合一区| 超清纯白嫩大学生无码网站| 免费a级毛片无码av| 无码人妻精品一区二区蜜桃百度 | 无码av天天av天天爽| 亚洲国产精品无码久久久秋霞1| 少妇精品无码一区二区三区| 久久久久亚洲AV成人无码 | 四虎成人精品国产永久免费无码 | 精品无码久久久久国产| 无码国内精品人妻少妇| 无码少妇一区二区三区| 久久午夜福利无码1000合集| 无码人妻丰满熟妇区96|