System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 中文字幕无码亚洲欧洲日韩,欲色aV无码一区二区人妻,亚洲中文字幕无码爆乳app
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    基于混合注意力機制的渦旋光高階軌道角動量模態識別方法技術

    技術編號:42157065 閱讀:7 留言:0更新日期:2024-07-27 00:08
    本發明專利技術公開了無線光通信技術領域內的一種基于混合注意力機制的渦旋光高階軌道角動量模態識別方法,包括步驟:S1,構建包含不同OAM模態光強圖像的仿真數據集;S2,搭建卷積注意力機制網絡;S3,利用仿真數據集中的訓練集去訓練卷積注意力機制網絡,得到最優深度學習模型;S4,將仿真數據集中的測試集輸入最優深度學習模型,識別未知湍流環境下渦旋光束的OAM模態,本發明專利技術充分利用了單OAM模態渦旋光經過雙縫后的光強圖像細節特征,在骨干網絡中引入坐標注意力機制和十字窗口自注意力機制,有效提升了未知湍流環境下渦旋光束OAM模態的識別效率。

    【技術實現步驟摘要】

    本專利技術涉及無線光通信,特別涉及一種基于混合注意力機制的渦旋光高階軌道角動量模態識別方法。


    技術介紹

    1、隨著萬物智聯和數字化的興起,無線光通信系統的傳輸容量將達到瓶頸。而渦旋光束的軌道角動量(orbital?angular?momentum,?oam)作為全新的光場結構維度,通過其特有的本征態正交性,可成倍提升無線光通信網絡容量和頻譜利用率。當渦旋光束在傳輸過程中受到大氣湍流擾動時,會引起oam模態擴散和不同oam模態間的串擾問題,嚴重影響接收端對oam模態的準確識別。因此,在湍流環境下準確且高效地識別渦旋光束的oam模態對其在大容量光通信領域的應用至關重要。

    2、現有研究中,渦旋光束oam模態識別方法大致可分為兩類,即物理光學識別法和深度學習識別法。物理光學識別法是指通過衍射、干涉或坐標變換等途徑,把待識別光束轉化為具有特殊強度分布的光場,通過分析光場的相關特性來推斷待識別光束的oam模態。隨著計算機視覺技術的不斷發展,深度學習在圖像處理領域展現出了強大的能力。卷積神經網絡(cnn)作為深度學習識別法的主流模型,能在接收端收到帶有oam模態信息的光強圖像時自動提取其中的特征信息并進行學習,從而識別圖像oam模態。同時,注意力(attention)機制的出現使得cnn在圖像分類中能夠更有效地聚焦于關鍵特征,從而提升識別性能。

    3、經過分析現有技術,發現傳統的物理光學識別法受限于光學器件的性能、靈敏度和光路設計的復雜性,在單oam模態識別中存在一些問題。例如,識別準確率低、可識別模態范圍有限、識別過程復雜、無法同時識別單oam模態的大小和方向,并且通常沒有考慮未知大氣湍流對光束帶來的畸變影響。這些問題影響了識別方法的泛化性和魯棒性,使其難以在實際的光通信場景中應用。


    技術實現思路

    1、針對現有技術中存在的不足,本專利技術提供了一種基于混合注意力機制的渦旋光高階軌道角動量模態識別方法,充分利用了單oam模態渦旋光經過雙縫后的光強圖像細節特征,在骨干網絡中引入坐標注意力機制和十字窗口自注意力機制,有效提升了未知湍流環境下渦旋光束oam模態的識別效率。

    2、本專利技術的目的是這樣實現的:

    3、與現有技術相比,本專利技術的有益效果在于:

    4、1、本專利技術提供的一種基于混合注意力機制的渦旋光高階軌道角動量模態識別方法,其坐標注意力機制和十字窗口自注意力機制的組合能夠有效提取光束光強圖的數據特征。在未知大氣湍流強度下的識別準確率達到了96.52%,可識別oam模態的范圍為(-10?~?+10)。相比現有技術,可以同時識別20類環境干擾下oam模態的大小及方向,識別準確率更高,可識別oam模態的范圍更大。

    5、2、本專利技術與傳統物理光學oam模態識別方法相對比,提出的基于卷積注意力機制網絡的識別技術實現了端對端的識別,只需輸入包含oam模態信息的待測光束光強圖,就能對其單oam模態進行準確識別,不需要采用空間光調制器等復雜硬件設施,在降低識別成本的同時提高了識別速率。

    本文檔來自技高網...

    【技術保護點】

    1.一種基于混合注意力機制的渦旋光高階軌道角動量模態識別方法,其特征在于,包括以下步驟:

    2.根據權利要求1所述的基于混合注意力機制的渦旋光高階軌道角動量模態識別方法,其特征在于,步驟1)中不同OAM模態的光強圖像仿真數據集是待識別渦旋光束經過大氣湍流相位屏和雙縫后獲得的,選定光源為拉蓋爾高斯渦旋光束,設定單OAM模態范圍為-10~?+10,即可獲得其光強圖像;大氣湍流相位屏仿真實現是基于功率譜反演法,隨機生成大氣湍流相位屏,所述大氣湍流相位屏包括高頻部分和低頻補償部分。

    3.根據權利要求2所述的基于混合注意力機制的渦旋光高階軌道角動量模態識別方法,其特征在于,所述混合注意力機制網絡由1個初始模塊、3個Inception-A模塊、4個Inception-B模塊、2個Inception-C模塊、2個降維模塊、2個坐標注意力模塊、1個十字窗口自注意力模塊、1個全局平均池化層和1個全連接層組成:

    4.根據權利要求3所述的基于混合注意力機制的渦旋光高階軌道角動量模態識別方法,其特征在于,在步驟S3中,將S1得到的不同OAM模態經過大氣湍流相位屏和雙縫后的光強圖像仿真數據集輸入到S2的混合注意力機制網絡中進行訓練,得到最優深度學習模型,利用數據集訓練網絡的過程包括數據清洗、數據標注、數據劃分、數據預處理、定義網絡層、激活函數、損失函數和優化器、前向傳播、損失計算、反向傳播、批量訓練、驗證模型、超參數調整。

    5.根據權利要求4所述的基于混合注意力機制的渦旋光高階軌道角動量模態識別方法,其特征在于,在步驟S4中,將S3劃分好的測試集輸入S3最優的深度學習模型,識別未知湍流環境下渦旋光束的OAM模態,并在測試集上評估最終模型的性能,計算測試損失和準確率,驗證模型的泛化能力。

    ...

    【技術特征摘要】

    1.一種基于混合注意力機制的渦旋光高階軌道角動量模態識別方法,其特征在于,包括以下步驟:

    2.根據權利要求1所述的基于混合注意力機制的渦旋光高階軌道角動量模態識別方法,其特征在于,步驟1)中不同oam模態的光強圖像仿真數據集是待識別渦旋光束經過大氣湍流相位屏和雙縫后獲得的,選定光源為拉蓋爾高斯渦旋光束,設定單oam模態范圍為-10~?+10,即可獲得其光強圖像;大氣湍流相位屏仿真實現是基于功率譜反演法,隨機生成大氣湍流相位屏,所述大氣湍流相位屏包括高頻部分和低頻補償部分。

    3.根據權利要求2所述的基于混合注意力機制的渦旋光高階軌道角動量模態識別方法,其特征在于,所述混合注意力機制網絡由1個初始模塊、3個inception-a模塊、4個inception-b模塊、2個inception-c模塊、2個降維模塊、2個坐標注意力模塊、1個十...

    【專利技術屬性】
    技術研發人員:吳鵬飛,賈致遠,董源,雷思琛,鄧正萬沈文娟,黃康
    申請(專利權)人:江蘇優加貝智能科技有限公司,
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 国产精品无码av片在线观看播| YY111111少妇无码理论片| 色偷偷一区二区无码视频| 精品人无码一区二区三区| 精品久久久久久久无码久中文字幕| 成年无码av片完整版| 青青爽无码视频在线观看| 久久久久无码国产精品一区| 精品无码成人久久久久久| 久久亚洲AV成人无码| 亚洲AV无码成人专区片在线观看 | 成年男人裸j照无遮挡无码| 国产成人无码精品久久久免费| 高清无码午夜福利在线观看| 中文字幕丰满乱子伦无码专区| 日韩夜夜高潮夜夜爽无码| 永久免费AV无码国产网站| 无码国产精品一区二区免费模式| 午夜亚洲av永久无码精品| 黑人巨大无码中文字幕无码| 日韩国产精品无码一区二区三区| 国产aⅴ无码专区亚洲av麻豆| 免费无码又爽又刺激高潮的视频| 一本一道VS无码中文字幕| 熟妇人妻无码中文字幕| 亚洲AV无码一区二区三区DV| 国产在线无码视频一区二区三区| 亚洲男人在线无码视频| 亚洲?V无码乱码国产精品| 久久精品无码一区二区日韩AV| 国产av无码久久精品| 国产午夜无码片在线观看影院 | 一本大道久久东京热无码AV| 无码里番纯肉h在线网站| 久久无码av亚洲精品色午夜| 成人麻豆日韩在无码视频| 亚洲国产91精品无码专区| 日韩人妻无码一区二区三区综合部| 国产综合无码一区二区三区| 亚洲国产精品无码久久久不卡| 亚洲AV日韩AV永久无码下载|