System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 日韩精品无码久久一区二区三,国产精品亚洲αv天堂无码,熟妇人妻系列av无码一区二区
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于神經混合相機的動態鳥群觀測方法和系統技術方案

    技術編號:44447928 閱讀:4 留言:0更新日期:2025-02-28 18:53
    本發明專利技術公開了一種基于神經混合相機的動態鳥群觀測方法和系統,包括:步驟1,獲取鳥群的中心視圖和周圍視圖;步驟2,根據先用中心視圖訓練的神經中心視圖場CI<subgt;θ</subgt;,后用周圍視圖訓練的視差場步驟3,根據新視角下的雙平面光場坐標,利用神經光場網絡模型輸出動態鳥群在新視角下的全景視圖。本發明專利技術能夠僅通過混合相機系統采集到的圖像數據,渲染出任意光場視角的圖像,充分挖掘混合相機數據的光場顏色和角度信息。

    【技術實現步驟摘要】

    本專利技術涉及計算機視覺與計算機圖形學,特別是涉及一種基于神經混合相機的動態鳥群觀測方法和系統


    技術介紹

    1、在動態鳥群觀測中,實現大視場、高分辨率和三維成像面臨諸多挑戰。首先,鳥群通常在廣闊的空間中進行復雜的飛行活動,要求觀測系統具備廣泛的視場以捕捉整個群體的動態變化。傳統成像設備很難兼顧大視場與高分辨率之間的平衡,過小的視場可能無法全面覆蓋鳥群活動,而視場擴大則通常導致分辨率下降。此外,鳥群飛行軌跡復雜,常伴隨高度的形變和快速運動,這使得觀測系統在進行三維成像時更為困難。高質量的三維成像需要同時具備高空間和時間分辨率,以確保捕捉鳥群的精細運動軌跡及其在三維空間中的分布,但這一需求往往會帶來大量的數據處理和存儲壓力。

    2、神經混合光場相機在動態鳥群觀測中具有顯著優勢。首先,它能夠大幅提升成像視場,使得更大范圍內的鳥群活動都能被精確捕捉,同時保持高分辨率的光場輸出,確保觀測系統可以獲取鳥群的細節信息。此外,神經混合光場相機能夠將光場數據存儲在神經網絡中,大幅減少了傳統光場存儲所需的數據量。這種存儲方式不僅有效緩解了高分辨率和大視場觀測中所產生的數據處理和存儲瓶頸,還能提升數據傳輸和處理的效率,使得動態鳥群的觀測在大規模和高精度需求下得以高效實現。


    技術實現思路

    1、本專利技術的目的在于提供一種一種基于神經混合相機的動態鳥群觀測方法和系統,來滿足動態鳥群觀測實現大視場、高分辨率和三維成像的需求。

    2、為實現上述目的,本專利技術提供一種基于神經混合相機的動態鳥群觀測方法,其包括:

    3、步驟1,通過混合相機系統采集不同分辨率的鳥群圖像數據,混合相機系統包括布置在中心視點(u0,v0)位置的相機,用于獲取中心視圖混合相機系統還包括布置在中心視點(u0,v0)周圍位置的相機,用于獲取周圍視圖

    4、步驟2,利用步驟1的中心視圖對神經光場網絡模型的神經中心視圖場ciθ(x,y)進行訓練,θ表示神經中心視圖場ciθ(x,y)的網絡參數集合,利用步驟1獲得的周圍視圖對神經光場網絡模型的神經視差場進行訓練,φ表示神經視差場的網絡參數集合;其中,神經光場網絡模型的獲取方式包括:

    5、將雙平面光場的位置坐標(u,v,x,y)作為式(2)描述的抗遮擋和抗朗播輻射的視差傳播方程l(u,v,x,y)的輸入,通過神經中心視圖場ciθ(x,y)和神經視差場分別表示中心視圖函數和視差函數du,v(x,y),如式(3)和式(4)所示,得到式(1)描述的神經光場網絡模型

    6、

    7、式中,表示由中心視圖和相對于中心視點的視差圖得到光場視點(u,v)的周圍視圖的物理過程;

    8、步驟3,根據新視角下的雙平面光場坐標(u,v,x,y),利用步驟2的神經光場網絡模型將雙平面光場坐標(u,v,x,y)映射為對應的顏色值,從而獲取該位置上動態鳥群的圖像信息,進而輸出動態鳥群在新視角下的全景視圖。

    9、進一步地,步驟2的神經中心視圖場ciθ(x,y)的訓練方法具體包括:使用式(5)描述的損失函數獲取神經中心視圖場ciθ(x,y):

    10、

    11、式中,為ciθ(x,y)與的重建損失,表示分辨率為αh×αw的中心視圖在雙平面光場中的πxy平面的坐標集合,||表示取絕對值。

    12、進一步地,步驟2的神經視差場的訓練方法具體包括:使用式(9)描述的損失函數獲取神經視差場

    13、

    14、其中,λ1,λ2,λ3是超參數,是式(6)描述的結構感知平滑度損失,是式(7)描述的結構相似性指數損失,是式(8)描述的周圍視圖的預測值和周圍視圖的的重建損失;

    15、

    16、式中,xs分別表示為分辨率為h×w的周圍視圖分別在雙平面光場中的πuv平面、πxy平面的坐標集合,表示沿水平和垂直方向的梯度,⊙表示hadamard乘積,η表示控制邊緣敏感度的強弱的調節參數,表示光場視點(u,v)相對于中心視點(u0,v0)的視差圖,||表示取絕對值,ssim用于衡量兩幅圖像相似度的指標。

    17、進一步地,λ1=1,λ2=0.1,λ3=0.01。

    18、本專利技術還提供一種基于神經混合相機的動態鳥群觀測系統,其包括:

    19、鳥群圖像采集單元,其用于通過混合相機系統采集不同分辨率的鳥群圖像數據,混合相機系統包括布置在中心視點(u0,v0)位置的相機,用于獲取中心視圖混合相機系統還包括布置在中心視點(u0,v0)周圍位置的相機,用于獲取周圍視圖

    20、神經光場網絡模型創建單元,其用于利用鳥群圖像采集單元的中心視圖對神經光場網絡模型的神經中心視圖場ciθ(x,y)進行訓練,θ表示神經中心視圖場ciθ(x,y)的網絡參數集合,利用鳥群圖像采集單元的周圍視圖對神經光場網絡模型的神經視差場進行訓練,φ表示神經視差場的網絡參數集合;其中,神經光場網絡模型的獲取方式包括:

    21、將雙平面光場的位置坐標(u,v,x,y)作為式(2)描述的抗遮擋和抗朗播輻射的視差傳播方程l(u,v,x,y)的輸入,通過神經中心視圖場ciθ(x,y)和神經視差場分別表示中心視圖函數和視差函數du,v(x,y),如式(3)和式(4)所示,得到式(1)描述的神經光場網絡模型

    22、

    23、式中,表示由中心視圖和相對于中心視點的視差圖得到光場視點(u,v)的周圍視圖的物理過程;

    24、場景重構單元,其用于根據新視角下的雙平面光場坐標(u,v,x,y),利用步驟2的神經光場網絡模型將雙平面光場坐標(u,v,x,y)映射為對應的顏色值,從而獲取該位置上動態鳥群的圖像信息,進而輸出動態鳥群在新視角下的全景視圖。

    25、進一步地,神經中心視圖場ciθ(x,y)的訓練方法具體包括:使用式(5)描述的損失函數獲取神經中心視圖場ciθ(x,y):

    26、

    27、式中,為ciθ(x,y)與的重建損失,表示分辨率為αh×αw的中心視圖在雙平面光場中的πxy平面的坐標集合,||表示取絕對值。

    28、進一步地,神經視差場的訓練方法具體包括:使用式(9)描述的損失函數獲取神經視差場

    29、

    30、其中,λ1,λ2,λ3是超參數,是式(6)描述的結構感知平滑度損失,是式(7)描述的結構相似性指數損失,是式(8)描述的周圍視圖的預測值和周圍視圖的的重建損失;

    31、

    32、式中,xs分別表示為分辨率為h×w的周圍視圖分別在雙平面光場中的πuv平面、πxy平面的坐標集合,表示沿水平和垂直方向的梯度,⊙表示hadamard乘積,η表示控制邊緣敏感度的強弱的調節參數,表示光場視點(u,v)相對于中心視點(u0,v0)的視差圖,||表示取絕對值,ssim用于衡量兩幅圖像相似度的指標。

    33、進一步地,λ1=1,λ2=0.1,λ3=0.01。

    34、本專利技術能夠實現不使用大型光場相機陣列,使用混本文檔來自技高網...

    【技術保護點】

    1.一種基于神經混合相機的動態鳥群觀測方法,其特征在于,包括:

    2.如權利要求1所述的基于神經混合相機的動態鳥群觀測方法,其特征在于,步驟2的神經中心視圖場CIθ(x,y)的訓練方法具體包括:使用式(5)描述的損失函數獲取神經中心視圖場CIθ(x,y):

    3.如權利要求1或2所述的基于神經混合相機的動態鳥群觀測方法,其特征在于,步驟2的神經視差場的訓練方法具體包括:使用式(9)描述的損失函數ll獲取神經視差場

    4.如權利要求3所述的基于神經混合相機的動態鳥群觀測方法,其特征在于,λ1=1,λ2=0.1,λ3=0.01。

    5.一種基于神經混合相機的動態鳥群觀測系統,其特征在于,包括:

    6.如權利要求5所述的基于神經混合相機的動態鳥群觀測系統,其特征在于,神經中心視圖場CIθ(x,y)的訓練方法具體包括:使用式(5)描述的損失函數獲取神經中心視圖場CIθ(x,y):

    7.如權利要求5或6所述的基于神經混合相機的動態鳥群觀測系統,其特征在于,神經視差場的訓練方法具體包括:使用式(9)描述的損失函數ll獲取神經視差場

    8.如權利要求7所述的基于神經混合相機的動態鳥群觀測方法,其特征在于,λ1=1,λ2=0.1,λ3=0.01。

    ...

    【技術特征摘要】

    1.一種基于神經混合相機的動態鳥群觀測方法,其特征在于,包括:

    2.如權利要求1所述的基于神經混合相機的動態鳥群觀測方法,其特征在于,步驟2的神經中心視圖場ciθ(x,y)的訓練方法具體包括:使用式(5)描述的損失函數獲取神經中心視圖場ciθ(x,y):

    3.如權利要求1或2所述的基于神經混合相機的動態鳥群觀測方法,其特征在于,步驟2的神經視差場的訓練方法具體包括:使用式(9)描述的損失函數ll獲取神經視差場

    4.如權利要求3所述的基于神經混合相機的動態鳥群觀測方法,其特征在于,λ1=1,λ2=0.1,λ3=0.01。...

    【專利技術屬性】
    技術研發人員:劉暢馬旭冉周佳紅孫妮妮韓雪濤張瑾于凱文邱鈞
    申請(專利權)人:北京信息科技大學
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 成人免费无码大片A毛片抽搐色欲| 少妇人妻无码专区视频| 国产爆乳无码视频在线观看| 亚洲Av永久无码精品三区在线| 亚洲人成影院在线无码按摩店| 蜜色欲多人AV久久无码| 国产成人亚洲综合无码精品| 久久久久无码精品国产不卡| 亚洲中文字幕无码爆乳AV| 亚洲国产超清无码专区| 未满小14洗澡无码视频网站| 成人h动漫精品一区二区无码 | 八戒理论片午影院无码爱恋| 激情无码亚洲一区二区三区| 亚洲中文字幕无码久久精品1 | 特黄熟妇丰满人妻无码| 无码国内精品久久人妻蜜桃| 天堂一区人妻无码| 人妻丰满熟妇无码区免费| 中文字幕无码久久久| 人妻av无码专区| 成人无码网WWW在线观看| 亚洲av纯肉无码精品动漫| 无码国产精品一区二区免费式影视 | 久久午夜无码鲁丝片秋霞| 中文字幕无码av激情不卡久久| 国产福利无码一区在线 | 亚洲AV无码成人精品区狼人影院| 亚洲桃色AV无码| 亚洲国产一二三精品无码| 久久99久久无码毛片一区二区 | 色爱无码AV综合区| 国产精品无码专区| 亚洲AV无码国产精品麻豆天美 | 热の无码热の有码热の综合| 人妻在线无码一区二区三区| 免费无码又黄又爽又刺激 | 狠狠躁夜夜躁无码中文字幕| 亚洲色偷拍区另类无码专区| 成人无码午夜在线观看| 亚洲av无码乱码国产精品fc2|