System.ArgumentOutOfRangeException: 索引和長(zhǎng)度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 亚洲精品无码鲁网中文电影,久久精品无码一区二区app,久久久久久人妻无码
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于特征相似度計(jì)算的快速聚合分類方法技術(shù)

    技術(shù)編號(hào):44197381 閱讀:14 留言:0更新日期:2025-02-06 18:34
    本發(fā)明專利技術(shù)公開了一種基于特征相似度計(jì)算的快速聚合分類方法,涉及圖像處理技術(shù)領(lǐng)域,主要包括步驟:在遷移學(xué)習(xí)模式下,通過對(duì)各訓(xùn)練圖像以及對(duì)應(yīng)的梯度特征、頻域特征進(jìn)行維度統(tǒng)一后的注意力機(jī)制整合,獲取場(chǎng)景高維特征信息;根據(jù)各訓(xùn)練圖像獲得的場(chǎng)景高維特征信息,基于無窮范數(shù)進(jìn)行距離比對(duì)下的基準(zhǔn)核心特征挑選;根據(jù)基準(zhǔn)核心特征,使用基于密度的聚類算法進(jìn)行噪聲點(diǎn)剔除下的特征矩陣獲取;提取目標(biāo)輸入圖像的梯度特征和頻域特征,并與目標(biāo)輸入圖像進(jìn)行維度統(tǒng)一后的注意力機(jī)制整合,獲取目標(biāo)高維特征信息;根據(jù)目標(biāo)高維特征信息與特征矩陣中基準(zhǔn)核心特征的距離進(jìn)行目標(biāo)輸入圖像的分類判斷。本發(fā)明專利技術(shù)極大地提高了系統(tǒng)分類判別的適應(yīng)性和靈活性。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)涉及圖像處理,具體涉及一種基于特征相似度計(jì)算的快速聚合分類方法


    技術(shù)介紹

    1、快速分類作為機(jī)器視覺領(lǐng)域的一個(gè)重要分支,其主要任務(wù)是在工業(yè)視覺環(huán)境中區(qū)分圖像是否屬于某一特定類別。與其它機(jī)器視覺任務(wù)不同,分類任務(wù)更側(cè)重于定性分析,即確定圖像屬于預(yù)定義的離散類號(hào)或給出類別的接近值。

    2、在傳統(tǒng)的分類方法中,特征提取方案是人工設(shè)計(jì)的,根據(jù)具體需求選擇如顏色直方圖、紋理特征(例如灰度共生矩陣)、形狀特征(例如邊緣檢測(cè)后的幾何描述)以及高維幾何特征等作為表征圖像類別的屬性。這些屬性被用作表達(dá)式的變量來計(jì)算類別間的相似度。傳統(tǒng)的方法包括支持向量機(jī)(svm)、隨機(jī)森林、k-means聚類和早期的神經(jīng)網(wǎng)絡(luò)感知機(jī)等機(jī)器學(xué)習(xí)算法。

    3、隨著深度學(xué)習(xí)技術(shù)的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)(cnn)被引入到機(jī)器視覺領(lǐng)域,可以使用大規(guī)模數(shù)據(jù)集對(duì)cnn架構(gòu)(如lenet、alexnet、vggnet、resnet等)進(jìn)行訓(xùn)練,以實(shí)現(xiàn)輸入圖像的前向分類。深度學(xué)習(xí)模型能夠自動(dòng)調(diào)整參數(shù)以獲取特征信息,從而實(shí)現(xiàn)端到端的學(xué)習(xí),無需人工干預(yù),這使得它們?cè)诜诸悜?yīng)用中非常流行。此外,還可以利用預(yù)訓(xùn)練模型作為骨干網(wǎng)絡(luò),并在此基礎(chǔ)上針對(duì)特定項(xiàng)目定制網(wǎng)絡(luò)層或功能塊,以此提高訓(xùn)練速度并獲得更穩(wěn)定的結(jié)果。

    4、然而傳統(tǒng)的人工特征提取與訓(xùn)練模式難以快速響應(yīng)需求變化。由于工業(yè)視覺運(yùn)行環(huán)境的復(fù)雜性和干擾因素,這些方法往往不能保證預(yù)測(cè)結(jié)果的高穩(wěn)定性,特別是對(duì)于不允許ng品被誤判為ok品的應(yīng)用場(chǎng)景。此外,當(dāng)環(huán)境發(fā)生變化時(shí),需要技術(shù)人員頻繁調(diào)整參數(shù)以滿足檢測(cè)率的要求,增加了維護(hù)成本。

    5、其次,人工設(shè)計(jì)的特征具有較強(qiáng)的位置、旋轉(zhuǎn)角和縮放相關(guān)性,這要求有良好的前期定位功能來輔助特征提取。不同特征的變化幅度也存在顯著差異,將它們統(tǒng)一到一致的變化率是一項(xiàng)挑戰(zhàn),這對(duì)項(xiàng)目的開發(fā)提出了更高的要求,導(dǎo)致前期調(diào)試時(shí)間延長(zhǎng),并且在項(xiàng)目實(shí)施過程中需要大量的維護(hù)人員參與,以確保設(shè)備的穩(wěn)定運(yùn)行。


    技術(shù)實(shí)現(xiàn)思路

    1、為解決現(xiàn)有技術(shù)中的不足,本專利技術(shù)提出了一種基于特征相似度計(jì)算的快速聚合分類方法,包括步驟:

    2、s1:基于各公開數(shù)據(jù)集和項(xiàng)目實(shí)際應(yīng)用圖像獲取目標(biāo)應(yīng)用場(chǎng)景的訓(xùn)練數(shù)據(jù)集,并提取其中各訓(xùn)練圖像的梯度特征和頻域特征;

    3、s2:在遷移學(xué)習(xí)模式下,通過對(duì)各訓(xùn)練圖像以及對(duì)應(yīng)的梯度特征、頻域特征進(jìn)行維度統(tǒng)一后的注意力機(jī)制整合,對(duì)骨架網(wǎng)絡(luò)進(jìn)行重訓(xùn)練得到模型并利用模型得到高維特征;

    4、s3:根據(jù)各訓(xùn)練圖像獲得的場(chǎng)景高維特征信息,基于無窮范數(shù)進(jìn)行距離比對(duì)下的基準(zhǔn)核心特征挑選;

    5、s4:根據(jù)基準(zhǔn)核心特征,使用基于密度的聚類算法對(duì)當(dāng)前需要訓(xùn)練的數(shù)據(jù)集進(jìn)行噪聲點(diǎn)剔除下的特征矩陣獲取;

    6、s5:提取目標(biāo)輸入圖像的梯度特征和頻域特征,并與目標(biāo)輸入圖像進(jìn)行維度統(tǒng)一后的注意力機(jī)制整合,獲取目標(biāo)高維特征信息;

    7、s6:根據(jù)目標(biāo)高維特征信息與特征矩陣中基準(zhǔn)核心特征的距離進(jìn)行目標(biāo)輸入圖像的分類判斷。

    8、進(jìn)一步地,所述s1步驟中,梯度特征通過將圖像轉(zhuǎn)為灰度圖像后經(jīng)計(jì)算梯度幅值獲得,公式表達(dá)如下:

    9、

    10、式中,為灰度圖像下點(diǎn)處的梯度幅值,為灰度圖像中點(diǎn)處方向上的梯度分量,為灰度圖像中點(diǎn)處方向上的梯度分量。

    11、進(jìn)一步地,所述s1步驟中,通過對(duì)原始空間域圖像利用快速傅里葉變換變化到頻域范圍,并取頻域變化后的實(shí)部信息為頻域特征,頻域變化公式表達(dá)如下:

    12、

    13、式中,為快速傅里葉變換函數(shù),為頻域下的坐標(biāo)點(diǎn),為空間域下圖像在坐標(biāo)處的灰度,分別為空間域下圖像的寬和高,為自然數(shù),為虛數(shù)。

    14、進(jìn)一步地,所述s2步驟中,以resnet50網(wǎng)絡(luò)架構(gòu)作為骨架網(wǎng)絡(luò)的基礎(chǔ),采用中間數(shù)據(jù)處理和降采樣操作,去除原有框架的輸出層,替換為全局平均池化策略下相同維度的高維特征信息輸出。

    15、進(jìn)一步地,全局平均池化下相同維度下的特征輸出,其公式表達(dá)如下:

    16、

    17、式中,為第個(gè)特征圖的全局平均池化輸出值,為第個(gè)特征圖區(qū)域中位于處的元素,為第個(gè)特征圖全部元素的個(gè)數(shù)。

    18、進(jìn)一步地,所述s2步驟中,通過simam網(wǎng)絡(luò)架構(gòu)實(shí)現(xiàn)注意力機(jī)制下的整合,公式表達(dá)如下:

    19、

    20、式中,為整合后獲得的增強(qiáng)圖像,為幅值輸入的能量函數(shù),為頻域輸入的能量函數(shù),為空間域下的圖像,為卷積運(yùn)算操作。

    21、進(jìn)一步地,所述s3步驟中,?無窮范數(shù)下的距離獲取表示為如下公式:

    22、

    23、式中,為高維特征信息,為高維特征信息在維上的值,為高維特征信息在維上的值,為高維特征信息和高維特征信息之間的無窮范數(shù)距離,為求最大值函數(shù)。

    24、進(jìn)一步地,所述s3步驟中,基準(zhǔn)核心特征挑選具體為:

    25、當(dāng)類內(nèi)訓(xùn)練數(shù)據(jù)樣本小于預(yù)設(shè)個(gè)數(shù)時(shí),通過計(jì)算其中每個(gè)樣本和其它類內(nèi)樣本的距離,挑選距離最大的和/或距離和最小的為基準(zhǔn)核心特征;

    26、當(dāng)類內(nèi)訓(xùn)練數(shù)據(jù)樣本大于等于預(yù)設(shè)個(gè)數(shù)時(shí),通過計(jì)算其中每個(gè)樣本和其它類內(nèi)樣本的距離,挑選距離和最小的為基準(zhǔn)核心特征。

    27、進(jìn)一步地,所述s4步驟中,基于密度的聚類算法進(jìn)行噪聲點(diǎn)剔除下的特征矩陣獲取具體為:

    28、以任一基準(zhǔn)核心特征為圓心,獲取圓心預(yù)設(shè)距離半徑下鄰域范圍內(nèi)其它基準(zhǔn)核心特征的數(shù)量;

    29、若數(shù)量大于等于預(yù)設(shè)最少點(diǎn)數(shù),則該基準(zhǔn)核心特征為核心點(diǎn);

    30、若數(shù)量小于預(yù)設(shè)最少點(diǎn)數(shù),但處于其它核心點(diǎn)的鄰域范圍內(nèi),則該基準(zhǔn)核心特征為邊界點(diǎn);

    31、若既不是核心點(diǎn)也不是邊界點(diǎn),則該基準(zhǔn)核心特征為噪聲點(diǎn)。

    32、進(jìn)一步地,所述s6步驟中,目標(biāo)高維特征信息與特征矩陣中各基準(zhǔn)核心特征的距離,通過如下公式獲取:

    33、

    34、式中,為目標(biāo)高維特征信息與特征矩陣中各基準(zhǔn)核心特征的距離。

    35、與現(xiàn)有技術(shù)相比,本專利技術(shù)至少含有以下有益效果:

    36、(1)本專利技術(shù)所述的一種基于特征相似度計(jì)算的快速聚合分類方法,可以對(duì)已訓(xùn)練的類別進(jìn)行增量訓(xùn)練,即在不遺忘已有知識(shí)的前提下添加新的訓(xùn)練數(shù)據(jù),同時(shí)也可以靈活地增加或減少類別數(shù)量,極大地提高了系統(tǒng)的適應(yīng)性和靈活性;

    37、(2)通過引入梯度特征提取、頻域特征提取以及注意力機(jī)制等高級(jí)處理手段,結(jié)合卷積神經(jīng)網(wǎng)絡(luò)(cnn)和全局平均池化策略,本專利技術(shù)能夠在低配置環(huán)境下實(shí)現(xiàn)快速分類;

    38、(3)采用基于密度的聚類算法(dbscan)來處理含有噪聲的數(shù)據(jù)集,有效地剔除了噪聲點(diǎn),保證了訓(xùn)練數(shù)據(jù)的質(zhì)量,從而提升了模型的穩(wěn)定性和泛化能力;

    39、(4)允許在檢測(cè)到不屬于任何現(xiàn)有類別的圖像時(shí),即時(shí)更新模型以包含這些新樣本,或者創(chuàng)建新的類別,確保系統(tǒng)能夠迅速適應(yīng)需求的變化,而不必重新訓(xùn)練整個(gè)網(wǎng)絡(luò);

    40、(5)通過全局平均池化操作顯著減少了通道數(shù)量,本文檔來自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】

    1.一種基于特征相似度計(jì)算的快速聚合分類方法,其特征在于,包括步驟:

    2.如權(quán)利要求1所述的一種基于特征相似度計(jì)算的快速聚合分類方法,其特征在于,所述S1步驟中,梯度特征通過將圖像轉(zhuǎn)為灰度圖像后經(jīng)計(jì)算梯度幅值獲得,公式表達(dá)如下:

    3.如權(quán)利要求2所述的一種基于特征相似度計(jì)算的快速聚合分類方法,其特征在于,所述S1步驟中,通過對(duì)原始空間域圖像利用快速傅里葉變換變化到頻域范圍,并取頻域變化后的實(shí)部信息為頻域特征,頻域變化公式表達(dá)如下:

    4.如權(quán)利要求1所述的一種基于特征相似度計(jì)算的快速聚合分類方法,其特征在于,所述S2步驟中,以ResNet50網(wǎng)絡(luò)架構(gòu)作為骨架網(wǎng)絡(luò)的基礎(chǔ),采用中間數(shù)據(jù)處理和降采樣操作,去除原有框架的輸出層,替換為全局平均池化策略下相同維度的高維特征信息輸出。

    5.如權(quán)利要求4所述的一種基于特征相似度計(jì)算的快速聚合分類方法,其特征在于,全局平均池化下相同維度下的特征輸出,其公式表達(dá)如下:

    6.如權(quán)利要求3所述的一種基于特征相似度計(jì)算的快速聚合分類方法,其特征在于,所述S2步驟中,通過SimAM網(wǎng)絡(luò)架構(gòu)實(shí)現(xiàn)注意力機(jī)制下的整合,公式表達(dá)如下:

    7.如權(quán)利要求1所述的一種基于特征相似度計(jì)算的快速聚合分類方法,其特征在于,所述S3步驟中,?無窮范數(shù)下的距離獲取表示為如下公式:

    8.如權(quán)利要求7所述的一種基于特征相似度計(jì)算的快速聚合分類方法,其特征在于,所述S3步驟中,基準(zhǔn)核心特征挑選具體為:

    9.如權(quán)利要求1所述的一種基于特征相似度計(jì)算的快速聚合分類方法,其特征在于,所述S4步驟中,基于密度的聚類算法進(jìn)行噪聲點(diǎn)剔除下的特征矩陣獲取具體為:

    10.如權(quán)利要求7所述的一種基于特征相似度計(jì)算的快速聚合分類方法,其特征在于,所述S6步驟中,目標(biāo)高維特征信息與特征矩陣中各基準(zhǔn)核心特征的距離,通過如下公式獲取:

    ...

    【技術(shù)特征摘要】

    1.一種基于特征相似度計(jì)算的快速聚合分類方法,其特征在于,包括步驟:

    2.如權(quán)利要求1所述的一種基于特征相似度計(jì)算的快速聚合分類方法,其特征在于,所述s1步驟中,梯度特征通過將圖像轉(zhuǎn)為灰度圖像后經(jīng)計(jì)算梯度幅值獲得,公式表達(dá)如下:

    3.如權(quán)利要求2所述的一種基于特征相似度計(jì)算的快速聚合分類方法,其特征在于,所述s1步驟中,通過對(duì)原始空間域圖像利用快速傅里葉變換變化到頻域范圍,并取頻域變化后的實(shí)部信息為頻域特征,頻域變化公式表達(dá)如下:

    4.如權(quán)利要求1所述的一種基于特征相似度計(jì)算的快速聚合分類方法,其特征在于,所述s2步驟中,以resnet50網(wǎng)絡(luò)架構(gòu)作為骨架網(wǎng)絡(luò)的基礎(chǔ),采用中間數(shù)據(jù)處理和降采樣操作,去除原有框架的輸出層,替換為全局平均池化策略下相同維度的高維特征信息輸出。

    5.如權(quán)利要求4所述的一種基于特征相似度計(jì)算的快速聚合分類方法,其特征在于,全局平均池化下...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:李翔瑋林洲臣王鑫歡賴永俊
    申請(qǐng)(專利權(quán))人:寧波聚華光學(xué)科技有限公司
    類型:發(fā)明
    國(guó)別省市:

    網(wǎng)友詢問留言 已有0條評(píng)論
    • 還沒有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。

    1
    主站蜘蛛池模板: 久久久久亚洲av成人无码电影| yy111111少妇影院无码| 日韩精品无码专区免费播放| 精品人妻无码区在线视频| 无码视频在线播放一二三区| 久久精品九九热无码免贵| 亚洲av无码偷拍在线观看| 久久精品中文字幕无码| 一区二区三区无码高清| 无码一区18禁3D| 亚洲精品无码久久久久久久 | 狠狠躁天天躁无码中文字幕图| 成人无码网WWW在线观看| 无码丰满熟妇一区二区| 亚洲美免无码中文字幕在线| 国产成人午夜无码电影在线观看 | 久久久久亚洲精品无码蜜桃| 曰韩无码AV片免费播放不卡| 亚洲AV无码一区二区三区电影 | 成人毛片无码一区二区| 人妻中文字幕无码专区| 国产精品无码AV一区二区三区| 无码少妇一区二区浪潮av| 精品无码国产一区二区三区麻豆| 无码乱人伦一区二区亚洲一 | 69堂人成无码免费视频果冻传媒| 久久亚洲AV无码西西人体| 久久久国产精品无码一区二区三区 | 无码不卡中文字幕av| 亚洲av永久中文无码精品| 中文字幕日产无码| 亚洲av专区无码观看精品天堂| 亚洲AV无码乱码国产麻豆穿越 | 夜夜添无码试看一区二区三区| 无码人妻一区二区三区在线水卜樱 | 13小箩利洗澡无码视频网站免费| 亚洲午夜无码片在线观看影院猛 | 波多野42部无码喷潮在线| 中文字幕无码毛片免费看| 亚洲国产无套无码av电影| 亚洲爆乳精品无码一区二区三区|