• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當(dāng)前位置: 首頁 > 專利查詢>施志剛專利>正文

    類內(nèi)平均值最大相似性協(xié)作表示人臉識(shí)別方法技術(shù)

    技術(shù)編號(hào):15250759 閱讀:149 留言:0更新日期:2017-05-02 13:53
    本發(fā)明專利技術(shù)公開了一種基于類內(nèi)平均值最大相似性協(xié)作表示的人臉識(shí)別方法。首先選取每類訓(xùn)練樣本集中與測(cè)試樣本相似的若干樣本,組成近鄰樣本集;然后將各類近鄰樣本的類內(nèi)平均圖像協(xié)作表示并重構(gòu),并根據(jù)各類內(nèi)近鄰平均圖像的重構(gòu)誤差選擇最相似的若干類近鄰協(xié)作表示;這種以縮小目標(biāo)類別為目的的近鄰樣本協(xié)作表示在一定程度上降低了運(yùn)算的復(fù)雜度,并進(jìn)一步提高了識(shí)別率。

    A face recognition method based on intra class mean maximum similarity representation

    The invention discloses a face recognition method based on intra class average maximum similarity cooperative representation. First select each kind of training samples and test samples of several samples of similar composition, nearest neighbor sample set; and then the average image samples in all kinds of cooperative neighbors and reconstruction, and according to all kinds of image reconstruction error in average nearest neighbor selecting the number of the most similar neighbor collaborative representation; this to narrow the target category for the nearest neighbor samples cooperation the purpose of the said in a certain extent, reduce the complexity of computation, and further improve the recognition rate.

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)涉及一種人臉識(shí)別方法,特別是一種基于類內(nèi)平均值最大相似性協(xié)作表示的人臉識(shí)別方法。
    技術(shù)介紹
    在計(jì)算機(jī)視覺系統(tǒng)與模式識(shí)別領(lǐng)域,特征提取與分類是人臉識(shí)別研究的主要問題。其中傳統(tǒng)的基于特征提取的線性算法,如主成份分析(PCA)、線性鑒別分析(LDA)、還有一些改進(jìn)算法等均旨在從高維空間提取出有效的能反映圖像的低維全局特征,用以分類。雖然在實(shí)際應(yīng)用中有不錯(cuò)的效果,但線性算法不能很好的提取高維圖像的局部非線性特征,為此產(chǎn)生了諸多流行學(xué)習(xí)方法,如局部保持投影(LPP)、邊界Fisher分析(MFA)等。目前,還沒有權(quán)威的高維圖像到低維空間的變換準(zhǔn)則。假如在高維空間對(duì)目標(biāo)圖像有更好的表示就能獲得更準(zhǔn)確的分類,于是,WRIGHT等提出稀疏表示分類(SRC),通過稀疏約束求解能表征目標(biāo)樣本的各類訓(xùn)練樣本的線性組合,并將目標(biāo)樣本歸并到最多非零系數(shù)的類中。由于SRC對(duì)圖像中存在的光照、姿態(tài)、角度、甚至遮擋等可能會(huì)對(duì)分類造成干擾的因素不敏感,因此取得了不錯(cuò)的識(shí)別效果,已經(jīng)引起越來越多學(xué)者的關(guān)注,為提升算法的魯棒性,又有很多改進(jìn)方案。然而在人臉識(shí)別中,用于訓(xùn)練的樣本往往是不完備的。這樣SRC在實(shí)際應(yīng)用中基于l1-范數(shù)的稀疏求解,由于需要不斷迭代,導(dǎo)致計(jì)算的復(fù)雜度較高。ZHANG等人通過分析指出類間樣本的相似性對(duì)于協(xié)作表示的作用,將l2代替l1-范數(shù)弱化了范數(shù)的稀疏性,提出基于正則化最小二乘法的協(xié)作表示(CRC_RLS),此算法和SRC的識(shí)別效果相當(dāng),但運(yùn)行時(shí)間大幅縮減。在此基礎(chǔ)上,有很多改進(jìn)。一些研究人員利用圖像的低維特征實(shí)施CRC分類,比如XIE提出將圖像通過Shearlet多尺度變換后進(jìn)行融合,結(jié)合分塊用均勻局部二值模式(ULBP)提取特征以協(xié)作表示,改善了識(shí)別效果,但算法的復(fù)雜度較高;WEI[24]提出將灰度圖像分解成8個(gè)位平面,通過其中包含的有效識(shí)別信息進(jìn)行加權(quán),以構(gòu)造虛擬圖像協(xié)作表示,有效提升了識(shí)別率。此外,LIN提出魯棒協(xié)作表示(RCR),計(jì)算復(fù)雜度大大降低。LU、FAN指出樣本的有效局部信息對(duì)稀疏表示的重要性,通過訓(xùn)練樣本與目標(biāo)樣本的相似度構(gòu)建加權(quán)矩陣,分別提出加權(quán)稀疏表示,有效增強(qiáng)了分類性能。但此方法通過權(quán)衡各訓(xùn)練樣本與目標(biāo)樣本的相似度,將加權(quán)系數(shù)嵌入在基于整個(gè)數(shù)據(jù)集協(xié)作表示的系數(shù)求解中,一定程度上會(huì)降低計(jì)算的效率。受此啟發(fā),WANG引入分塊思想,通過提取各訓(xùn)練樣本與測(cè)試樣本對(duì)應(yīng)子圖像的最大相似信息嵌入在稀疏表示中,針對(duì)存在遮擋等非受控環(huán)境,識(shí)別率有較大改善。進(jìn)一步的,XIONG等對(duì)光照、表情差異較大,或有遮擋的圖像利用低秩矩陣恢復(fù),以此采用分塊最大相似性方法,識(shí)別魯棒性明顯提升。LIN針對(duì)樣本中的光照、角度、姿態(tài)等信息不能有效利用對(duì)分類的干擾,通過不同場(chǎng)景構(gòu)造虛擬樣本嵌入在各類訓(xùn)練樣本中,雖然有不錯(cuò)的識(shí)別效果。但每類樣本數(shù)增多,勢(shì)必會(huì)擴(kuò)大數(shù)據(jù)集的規(guī)模,從而使系數(shù)求解的效率下降。XU等通過階段性縮小目標(biāo)類別的二級(jí)分類法顯著提高了識(shí)別率,但第一階段基于整個(gè)數(shù)據(jù)集協(xié)作表示,因此計(jì)算的復(fù)雜度較高,同樣在運(yùn)行效率上沒有優(yōu)勢(shì)。綜上近年來廣泛用于計(jì)算機(jī)視覺與圖像處理領(lǐng)域的CRC算法的分析,均是利用整個(gè)數(shù)據(jù)集協(xié)作表示,因此數(shù)據(jù)集的規(guī)模會(huì)直接影響到樣本系數(shù)計(jì)算的時(shí)效。與以上協(xié)作表示的改進(jìn)方案不同,本專利技術(shù)更注重于算法的運(yùn)行效率,當(dāng)然在不影響識(shí)別率的前提下,最好也有一定的提升。LI基于整個(gè)訓(xùn)練集選擇與測(cè)試樣本更相似的樣本協(xié)同表示,大幅降低了運(yùn)行時(shí)間,但此方法易受到圖像噪聲的干擾,當(dāng)光照、姿態(tài)、角度等變化較大時(shí),識(shí)別效果一般。在此基礎(chǔ)上,YIN提出了改進(jìn)方案,即在訓(xùn)練集上,通過比較所有訓(xùn)練樣本與測(cè)試樣本系數(shù)的相似性,選取部分樣本局部協(xié)作表示,識(shí)別魯棒性更強(qiáng),但此方法通過樣本系數(shù)的相似性選擇近鄰,由于各樣本的系數(shù)計(jì)算基于整個(gè)訓(xùn)練集,倘若訓(xùn)練樣本增多,運(yùn)算復(fù)雜度就會(huì)提高,因此算法的實(shí)效一般。受上述算法的啟示,可以通過選擇有效且較少數(shù)量的樣本協(xié)作表示來改善識(shí)別性能。
    技術(shù)實(shí)現(xiàn)思路
    本專利技術(shù)所要解決的技術(shù)問題是提供一種針對(duì)光照、角度、姿態(tài)等非受控情況下,有較強(qiáng)識(shí)別魯棒性及運(yùn)行效率較高的基于類內(nèi)平均值最大相似協(xié)作表示的人臉識(shí)別方法。為解決上述技術(shù)問題,本專利技術(shù)所采用的技術(shù)方案是:一種基于類內(nèi)平均值最大相似性協(xié)作表示的人臉識(shí)別方法,其特征在于包含以下步驟:Step1:人臉數(shù)據(jù)庫包含了C個(gè)人的圖像,每個(gè)人有ni幅圖像,每幅圖像大小為m×n,定義訓(xùn)練樣本集測(cè)試樣本為Y∈Rm×n,將各類訓(xùn)練樣本矢量化為這樣第i類訓(xùn)練樣本組成的矩陣為C類訓(xùn)練樣本構(gòu)成的矩陣為Χ=[Χ1,…,XC]∈Rm×N,將測(cè)試樣本Y矢量化為y∈Rm×1;Step2:計(jì)算各訓(xùn)練樣本與y之間的距離,并找出各類訓(xùn)練樣本中與測(cè)試樣本y距離最近的K個(gè)近鄰樣本,第i類K個(gè)近鄰樣本組成的矩陣為其中σ1,σ2,…,σK∈[1,ni],則新的近鄰樣本矩陣Step3:在近鄰樣本矩陣中計(jì)算每一類近鄰樣本的類內(nèi)平均值組成類內(nèi)近鄰平均圖像矩陣Step4:基于協(xié)作表示模型,將作為編碼字典,用最小二乘法求解編碼系數(shù)α,得Step5:利用系數(shù)向量α中對(duì)應(yīng)于各類內(nèi)近鄰平均圖像的稀疏系數(shù)αi分別重構(gòu)測(cè)試樣本y,得到屬于各類內(nèi)近鄰平均圖像的重構(gòu)樣本組成類內(nèi)近鄰平均圖像重構(gòu)樣本集Step6:計(jì)算各類近鄰平均圖像重構(gòu)樣本與測(cè)試樣本y的誤差ei,即Step7:根據(jù)重構(gòu)誤差ei,從近鄰樣本集中選擇誤差最小的前S類近鄰樣本,其中第φi類近鄰樣本矩陣為以此組成新的近鄰樣本集Step8:將重構(gòu)誤差最小的前S類近鄰樣本集作為編碼字典,用最小二乘法求解基于協(xié)作表示模型的編碼系數(shù)得Step9:利用系數(shù)向量中對(duì)應(yīng)于前S類各類近鄰樣本的系數(shù)分別重構(gòu)測(cè)試樣本y,得到屬于各類近鄰的重構(gòu)樣本Step10:計(jì)算前S類各類近鄰重構(gòu)樣本與測(cè)試樣本y之間的誤差,即Step11:根據(jù)的最小值,判斷測(cè)試樣本y的歸屬。進(jìn)一步地,各類樣本平均值通過計(jì)算得到,且最大相似性取決于類內(nèi)近鄰數(shù)K,原始訓(xùn)練集Χ中與測(cè)試樣本y的近鄰根據(jù)歐式距離即公式計(jì)算得到。進(jìn)一步地,各類內(nèi)近鄰平均圖像與測(cè)試樣本y的誤差不是直接依據(jù)歐式距離計(jì)算得到,而是基于近鄰平均圖像集協(xié)作表示后通過重構(gòu)誤差獲得。進(jìn)一步地,在分類前,根據(jù)各類內(nèi)近鄰平均圖像與測(cè)試樣本y的誤差ei,舍去易對(duì)分類造成干擾的不相關(guān)類別,只保留有利于分類的前S類近鄰樣本,即協(xié)作表示。進(jìn)一步地,測(cè)試樣本y的歸屬通過公式判定,首先通過在第二次對(duì)S類近鄰樣本的稀疏重構(gòu)中獲取φi的值,然后根據(jù)φi得到在第一次計(jì)算各類近鄰平均圖像重構(gòu)樣本與測(cè)試樣本y的最小誤差ei對(duì)應(yīng)的i值,也就是所屬的類別。本專利技術(shù)與現(xiàn)有技術(shù)相比,具有以下優(yōu)點(diǎn)和效果:1、通過在各類訓(xùn)練樣本中,選擇測(cè)試樣本的近鄰,保證較少數(shù)量樣本的協(xié)作表示在很大程度上降低了運(yùn)算的復(fù)雜度;2、與測(cè)試樣本最近鄰類內(nèi)若干樣本的平均值往往能最大程度的包含其特征,確保在協(xié)作表示時(shí),測(cè)試樣本與類內(nèi)樣本的誤差足夠小,同時(shí)與類間樣本的誤差足夠大,使分類更有效。3、根據(jù)各類內(nèi)近鄰平均圖像稀疏重構(gòu)與測(cè)試樣本的誤差保留若干類近鄰樣本用于最后的協(xié)作分類,進(jìn)一步減少了運(yùn)行時(shí)間,其縮小了類別范圍,使識(shí)別更精確。具體實(shí)施方式下面通過實(shí)施例對(duì)本專利技術(shù)作進(jìn)一步的詳細(xì)說明,以下實(shí)施例是對(duì)本專利技術(shù)的解釋而本專利技術(shù)并不局限于本文檔來自技高網(wǎng)
    ...

    【技術(shù)保護(hù)點(diǎn)】
    一種基于類內(nèi)平均值最大相似性協(xié)作表示的人臉識(shí)別方法,其特征在于包含以下步驟:Step1:人臉數(shù)據(jù)庫包含了C個(gè)人的圖像,每個(gè)人有ni幅圖像,每幅圖像大小為m×n,定義訓(xùn)練樣本集測(cè)試樣本為Y∈Rm×n,將各類訓(xùn)練樣本矢量化為這樣第i類訓(xùn)練樣本組成的矩陣為C類訓(xùn)練樣本構(gòu)成的矩陣為Χ=[Χ1,…,XC]∈Rm×N,將測(cè)試樣本Y矢量化為y∈Rm×1;Step2:計(jì)算各訓(xùn)練樣本與y之間的距離,并找出各類訓(xùn)練樣本中與測(cè)試樣本y距離最近的K個(gè)近鄰樣本,其中第i類K近鄰樣本組成的矩陣為則新的近鄰樣本矩陣Step3:在近鄰樣本矩陣中計(jì)算每一類近鄰樣本的類內(nèi)平均值則類內(nèi)近鄰平均圖像矩陣Step4:將近鄰平均圖像矩陣作為編碼字典,用最小二乘法求解基于協(xié)作表示模型的編碼系數(shù)α,得Step5:利用系數(shù)向量α中對(duì)應(yīng)于各類內(nèi)近鄰平均圖像的稀疏系數(shù)αi分別重構(gòu)測(cè)試樣本y,得到屬于各類內(nèi)近鄰平均圖像的重構(gòu)樣本組成類內(nèi)近鄰平均圖像重構(gòu)樣本集Step6:計(jì)算各類近鄰平均圖像重構(gòu)樣本與測(cè)試樣本y的誤差ei,即Step7:根據(jù)重構(gòu)誤差ei,從近鄰樣本集中選擇誤差最小的前S類近鄰樣本,其中第φi類近鄰樣本矩陣為以此組成新的近鄰樣本集Step8:將重構(gòu)誤差最小的前S類近鄰樣本集作為編碼字典,用最小二乘法求解基于協(xié)作表示模型的編碼系數(shù)得Step9:利用系數(shù)向量中對(duì)應(yīng)于前S類各類近鄰樣本的系數(shù)分別重構(gòu)測(cè)試樣本y,得到屬于各類近鄰的重構(gòu)樣本Step10:計(jì)算前S類各類近鄰重構(gòu)樣本與測(cè)試樣本y之間的誤差,即Step11:根據(jù)判斷測(cè)試樣本y的歸屬。...

    【技術(shù)特征摘要】
    1.一種基于類內(nèi)平均值最大相似性協(xié)作表示的人臉識(shí)別方法,其特征在于包含以下步驟:Step1:人臉數(shù)據(jù)庫包含了C個(gè)人的圖像,每個(gè)人有ni幅圖像,每幅圖像大小為m×n,定義訓(xùn)練樣本集測(cè)試樣本為Y∈Rm×n,將各類訓(xùn)練樣本矢量化為這樣第i類訓(xùn)練樣本組成的矩陣為C類訓(xùn)練樣本構(gòu)成的矩陣為Χ=[Χ1,…,XC]∈Rm×N,將測(cè)試樣本Y矢量化為y∈Rm×1;Step2:計(jì)算各訓(xùn)練樣本與y之間的距離,并找出各類訓(xùn)練樣本中與測(cè)試樣本y距離最近的K個(gè)近鄰樣本,其中第i類K近鄰樣本組成的矩陣為則新的近鄰樣本矩陣Step3:在近鄰樣本矩陣中計(jì)算每一類近鄰樣本的類內(nèi)平均值則類內(nèi)近鄰平均圖像矩陣Step4:將近鄰平均圖像矩陣作為編碼字典,用最小二乘法求解基于協(xié)作表示模型的編碼系數(shù)α,得Step5:利用系數(shù)向量α中對(duì)應(yīng)于各類內(nèi)近鄰平均圖像的稀疏系數(shù)αi分別重構(gòu)測(cè)試樣本y,得到屬于各類內(nèi)近鄰平均圖像的重構(gòu)樣本組成類內(nèi)近鄰平均圖像重構(gòu)樣本集Step6:計(jì)算各類近鄰平均圖像重構(gòu)樣本與測(cè)試樣本y的誤差ei,即Step7:根據(jù)重構(gòu)誤差ei,從近鄰樣本集中選擇誤差最小的前S類近鄰樣本,其中第φi類近鄰樣本矩陣為以此組成新的近鄰樣本集Step8:將重構(gòu)誤差最小的前S類近鄰樣本集作為編碼字典,用最小二乘法求解基于協(xié)作表示模型的編碼系數(shù)得Step9:利用系數(shù)向量中對(duì)應(yīng)...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:施志剛
    申請(qǐng)(專利權(quán))人:施志剛
    類型:發(fā)明
    國(guó)別省市:江蘇;32

    網(wǎng)友詢問留言 已有0條評(píng)論
    • 還沒有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。

    1
    主站蜘蛛池模板: 亚洲VA中文字幕无码毛片| 久久综合精品国产二区无码| 日韩人妻无码一区二区三区久久| 久久国产三级无码一区二区| 伊人久久综合无码成人网| 无码夫の前で人妻を犯す中字| 亚洲精品无码高潮喷水A片软| 国产麻豆天美果冻无码视频| 亚洲精品~无码抽插| 亚洲国产精品无码久久青草| 精品亚洲成A人无码成A在线观看| 亚洲成AV人在线播放无码| 性虎精品无码AV导航| 中文字幕无码播放免费| 少妇无码太爽了在线播放| 人妻无码久久久久久久久久久 | 国产精品成人无码免费| 亚洲AV无码无限在线观看不卡| 色视频综合无码一区二区三区| 国产精品无码素人福利免费| 无码人妻丰满熟妇区五十路百度| 日韩AV高清无码| 亚洲AV无码一区二区三区国产| 亚洲av无码成人影院一区| 99久久无码一区人妻a黑| 久久久无码人妻精品无码| 国产精品无码av在线播放| 久久精品无码一区二区日韩AV| 激情射精爆插热吻无码视频| 人妻丰满?V无码久久不卡| 久久无码av亚洲精品色午夜| 91久久精品无码一区二区毛片| 亚洲2022国产成人精品无码区| 色欲A∨无码蜜臀AV免费播| 中文字幕av无码一区二区三区电影| 亚洲AV无码乱码在线观看性色扶| 免费无码一区二区三区蜜桃大| 精品久久久无码中文字幕天天| 国产精品亚洲а∨无码播放不卡 | 中文字幕无码播放免费| 免费无码毛片一区二区APP|