一種基于多分辨率注意網絡的心電信號去噪方法,包括以下步驟:(1)從數據庫中選擇干凈的心電信號作為標簽數據,將不同種類和不同強度的噪聲信號疊加在干凈的心電信號中,作為訓練的樣本數據,標簽數據和訓練樣本數據統一重采樣為固定的采樣率,并分割為相等長度的數據片段,融合為訓練集和測試集;(2)利用數據集訓練心電信號去噪模型,模型的四個模塊采用不同分辨率提取特征,訓練N次,保存最優的訓練模型;(3)將需要進行去噪的心電信號重采樣為訓練集相同的采樣率,然后分割成子片段信號,輸入步驟(2)得到的網絡模型中,輸出干凈的心電信號。本發明專利技術能夠有效的去除不同種類和不同強度的噪聲,協助于醫生更高效的分析心電圖信號。號。號。
【技術實現步驟摘要】
一種基于多分辨率注意網絡的心電信號去噪方法
[0001]本專利技術涉及心電信號去噪領域,具體涉及一種基于多分辨率注意網絡的心電信號去噪方法。
技術介紹
[0002]隨著可穿戴設備的進一步發展,動態心電記錄儀能夠實時記錄心臟的變化。然而心電信號的獲得是置于心臟周圍皮膚的電極進行的無創采集,采集過程經常不可避免的受到各種噪聲的污染。這些噪聲可能引起心電圖形態的改變,掩蓋一些重要的診斷特征,一方面影響醫生的分析判斷,另一方面對自動智能診斷算法產生負面影響,因此,消除噪聲可以更好的幫助醫生進一步分析心電信號。
[0003]目前研究者針對心電信號去噪的問題提出了多種方法。其中大多數傳統的方法是基于人工提取特征和參數處理信號,例如低通濾波器、自適應濾波器,移動平局濾波器,離散小波變換,經驗模態分解,非局部均值等,這些方法可以取得一定的效果,但是在面對不同種類和強度的噪聲情況下可能受到影響。
技術實現思路
[0004]為了克服已有技術的不足,本專利技術提供一種基于多分辨率注意網絡的心電信號去噪方法,該方法能夠有效的去除不同種類和不同強度的噪聲,協助于醫生更高效的分析心電圖信號。
[0005]本專利技術解決其技術問題所采用的技術方案是:
[0006]一種基于多分辨率注意網絡的心電信號去噪方法,所述方法包括以下步驟:
[0007](1)構建數據集:從數據庫中選擇干凈的心電信號作為標簽數據,將不同種類和不同強度的噪聲信號疊加在干凈的心電信號中,作為訓練的樣本數據,標簽數據和訓練樣本數據統一重采樣為固定的采樣率,并分割為相等長度的數據片段,融合為訓練集和測試集;
[0008](2)去噪模型的訓練:利用步驟(1)構建的數據集訓練心電信號去噪模型,模型由四個模塊組成,采用不同分辨率提取特征,訓練N次,保存最優的訓練模型;
[0009](3)去噪模型應用:將需要進行去噪的心電信號重采樣為訓練集相同的采樣率,然后分割成子片段信號,輸入步驟(2)得到的網絡模型中,輸出干凈的心電信號;
[0010]至此完成本專利技術所述的心電信號去噪方法。
[0011]進一步,所述步驟(1)中,所述的心電信號為干凈的,無噪聲的信號,此處的無噪聲是指沒有肌肉偽影、基線漂移、電極運動三類噪聲,步驟如下:
[0012](1
?
1)信號重采樣到指定采樣率,將心電信號分割為長度為10s的子片段,最后一個不足10s的片段通過添加零值到10s的長度,得到N個子片段,記為SegsigC(i),i從1到N,作為干凈的標簽數據;
[0013](1
?
2)把噪聲信號分割成10s的長度,對噪聲信號進行歸一化處理,根據干凈信號幅值進行放大,得到幅值尺度和干凈信號統一的噪聲信號SegsigN;
[0014](1
?
3)疊加心電信號和一定強度的噪聲信號得到包含噪聲的數據:
[0015]SegsigCN(i)=SegsigC(i)+α*SegsigNSegsigCN為構建的含噪聲的心電數據,即訓練數據集,α表示添加噪聲的強度,α=0.1~1。
[0016]再進一步,所述步驟(2)中,將含有噪聲的心電信號輸入到網絡中進行訓練,所述的多分辨率注意網絡模型包含卷積模塊A、多分辨率特征提取分支、連接層、卷積模塊B,分別記為Block1,Block2,Block3,Block4,過程為:
[0017](2
?
1)將步驟(1)中含有噪聲的心電信號輸入到網絡模型中,噪聲信號首先經過Block1提取特征,輸入到Block2中;
[0018]卷積模塊A包含分別堆疊兩次的包含了一維卷積層、批歸一化層、Relu激活層和一個SE模塊;
[0019](2
?
2)Block2由四個不同分辨率特征提取分支組成,分為四個階段,如下:
[0020](2
?2?
1)Block2分支1的階段1進一步提取特征,該階段由4個殘差模塊A組成,階段2、3、4的每個分支使用4個殘差模塊B提取特征;
[0021]殘差模塊A依次堆疊卷積層、批歸一化層、Relu激活層、卷積層、批歸一化層、Relu激活層、卷積層、批歸一化層、SE模塊、Add連接層,Relu激活層;
[0022]殘差模塊B依次堆疊卷積層、批歸一化層、Relu激活層、卷積層、批歸一化層、SE模塊、Add連接層,Relu激活層;
[0023](2
?2?
2)Block2每個階段的末尾會產生新的分支,共包含4個分支,每個新的分支(高分支)都由之前的分支(低分支)通過卷積操作得到,因此相鄰分支中高分支分辨率是低分支的一半,四個分支包含四個分辨率的特征,分別為原始信號分辨率的1、1/2、1/4、1/8倍。分支1、2、3、4的特征圖的通道數分別為通道1、通道2、通道3、通道4。通道數可自由設置,一般為2的整數次冪,本專利技術使用通道數的是32、64、128、256;
[0024](2
?2?
3)在階段2、3、4后融合不同分支的特征,包含低分支到高分支,高分支到低分支以及同分支三種處理方式;
[0025](2
?2?3?
1)低分支到高分支,通道數不同,分辨率不同,是高分辨率到低分辨率的過程,使用stride等于2的卷積層;
[0026](2
?2?3?
2)高分支到低分支,通道數不同,分辨率不同,是低分辨率到多分辨率的過程,采用的是雙線性插值上采樣的過程;
[0027](2
?2?3?
3)同分支不做任何的操作處理,特征融合的方式采用的是求和操作;
[0028](2
?
3)最后需要把四個分支的特征拼接在一起,由于四個分支提取的特征由于分辨率的不同,首先通過上采樣把低分率特征上采樣到多分辨率,然后通過Block3將分辨率相同的特征連接起來輸入到Block4,得到模型的輸出。
[0029]所述卷積模塊B包含了卷積層、批歸一化層、Relu激活層、卷積層。
[0030]進一步地,所述多分辨率注意網絡的損失函數為均方差誤差:
[0031][0032]模型訓練中的優化器使用的是Adam,初始化的學習率為0.001,每經過五輪訓練,學習率*0.1,整個模型訓練30輪。訓練完成后保存并得到損失最小的去噪模型。
[0033]進一步,所述步驟(3)中,去噪模型應用的操作步驟如下:
[0034](3
?
1)將需要去噪的心電信號重采樣為訓練集相同的采樣率,然后將信號分割成10s的子片段,最后不足10s的片段,補零;
[0035](3
?
2)把截取后的心電信號輸入步驟(2)得到的網絡模型中,模型輸出去噪后的心電信號;
[0036](3
?
3)將模型輸出的心電信號依次首尾拼接,補零的部分截斷,重采樣后得到原始采樣率的完整去噪信號。
[0037本文檔來自技高網...
【技術保護點】
【技術特征摘要】
1.一種基于多分辨率注意網絡的心電信號去噪方法,其特征在于,所述方法包括以下步驟:(1)構建數據集:從數據庫中選擇干凈的心電信號作為標簽數據,將不同種類和不同強度的噪聲信號疊加在干凈的心電信號中,作為訓練的樣本數據,標簽數據和訓練樣本數據統一重采樣為固定的采樣率,并分割為相等長度的數據片段,融合為訓練集和測試集;(2)去噪模型的訓練:利用(1)構建的數據集訓練心電信號去噪模型,模型由四個模塊組成,采用不同分辨率提取特征,訓練N次,保存最優的訓練模型;(3)去噪模型應用:將需要進行去噪的心電信號重采樣為訓練集相同的采樣率,然后分割成子片段信號,輸入步驟(2)得到的網絡模型中,輸出干凈的心電信號。2.如權利要求1所述的一種基于多分辨率注意網絡的心電信號去噪方法,其特征在于,所述步驟(1)中,所述的心電信號為干凈的,無噪聲的信號,此處的無噪聲是指沒有肌肉偽影、基線漂移、電極運動三類噪聲,數據集構建操作步驟如下:(1
?
1)信號重采樣到指定采樣率,將心電信號分割為長度為10s的子片段,最后一個不足10s的片段通過添加零值到10s的長度,得到N個子片段,記為SegsigC(i),i從1到N,作為干凈的標簽數據;(1
?
2)把噪聲信號分割成10s的長度,對噪聲信號進行歸一化處理,根據干凈信號幅值進行放大,得到幅值尺度和干凈信號統一的噪聲信號SegsigN;(1
?
3)疊加心電信號和一定強度的噪聲信號得到包含噪聲的數據:SegsigCN(i)=SegsigC(i)+α*SegsigNSegsigCN為構建的含噪聲的心電數據,即訓練數據集,α表示添加噪聲的強度,α=0.1~1。3.如權利要求1或2所述的一種基于多分辨率注意網絡的心電信號去噪方法,其特征在于,所述步驟(2)中,多分辨率注意網絡模型包含卷積模塊A、多分辨率特征提取分支、連接層、卷積模塊B,分別記為Block1,Block2,Block3,Block4,過程如下:(2
?
1)將步驟(1)中含有噪聲的心電信號輸入到網絡模型中,噪聲信號首先經過Block1提取特征,輸入到Block2中;(2
?
2)Block2由四個不同分辨率特征提取分支組成,分為四個階段;(2
?
3)最...
【專利技術屬性】
技術研發人員:王震,謝寒霜,吳璠,劉亞敏,
申請(專利權)人:杭州質子科技有限公司,
類型:發明
國別省市:
還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。