System.ArgumentOutOfRangeException: 索引和長(zhǎng)度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 精品一区二区三区无码免费直播,中文无码AV一区二区三区,亚洲无码高清在线观看
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法技術(shù)

    技術(shù)編號(hào):44500708 閱讀:9 留言:0更新日期:2025-03-04 18:09
    本發(fā)明專利技術(shù)涉及計(jì)算機(jī)技術(shù)領(lǐng)域,提出一種機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,其包括以下步驟:S1、建立機(jī)車(chē)司機(jī)疲勞狀態(tài)的用戶圖像樣本數(shù)據(jù)集并標(biāo)記;S2、輸入生成對(duì)抗網(wǎng)絡(luò)模型,訓(xùn)練生成對(duì)抗網(wǎng)絡(luò)模型的生成器和判別器以進(jìn)行數(shù)據(jù)擴(kuò)充;S3、數(shù)據(jù)擴(kuò)充后分別輸入特征提取模型、特征降維模型和分類(lèi)器模型進(jìn)行模型訓(xùn)練,得到訓(xùn)練完成的用戶圖像樣本模型;S4、基于訓(xùn)練完成的用戶圖像樣本模型,實(shí)時(shí)監(jiān)測(cè)機(jī)車(chē)司機(jī)的疲勞等級(jí),并給出安全措施。本方案基于生成對(duì)抗網(wǎng)絡(luò),有效擴(kuò)充訓(xùn)練數(shù)據(jù)集,特征提取模型的訓(xùn)練效率得到顯著提升,訓(xùn)練過(guò)程的收斂速度加快,縮短了模型開(kāi)發(fā)周期,特征降維模型的優(yōu)化提升了數(shù)據(jù)重構(gòu)質(zhì)量,分類(lèi)器的改進(jìn)提高了分類(lèi)精度。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)涉及人工智能,尤其涉及一種機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法


    技術(shù)介紹

    1、機(jī)車(chē)司機(jī)在長(zhǎng)時(shí)間駕駛過(guò)程中可能出現(xiàn)疲勞問(wèn)題,這種疲勞狀態(tài)如果不及時(shí)識(shí)別和處理,可能導(dǎo)致嚴(yán)重的安全事故。傳統(tǒng)的疲勞檢測(cè)方法依賴于司機(jī)的主觀反饋或者較為簡(jiǎn)單的生理指標(biāo)監(jiān)測(cè),這些方法不僅反應(yīng)遲緩,而且容易受到個(gè)體差異的影響,難以準(zhǔn)確評(píng)估司機(jī)的實(shí)時(shí)疲勞狀態(tài)。

    2、申請(qǐng)?zhí)枮閏n202111174577.0的中國(guó)專利技術(shù)專利提出一種基于多源視覺(jué)信息融合的疲勞駕駛檢測(cè)方法,該方法包括:建立疲勞駕駛狀態(tài)下的用戶圖像樣本數(shù)據(jù)集;基于所述用戶圖像樣本數(shù)據(jù)集,提取并融合多維面部動(dòng)作單元和頭部姿態(tài)特征、多維眼部紋理特征與多維額部紋理特征,獲得多維疲勞特征向量;利用mi-fcbf算法對(duì)所述多維疲勞特征向量進(jìn)行選擇,獲得低維疲勞特征;根據(jù)所述低維疲勞特征,訓(xùn)練adaboost分類(lèi)器,生成可用于識(shí)別疲勞駕駛狀態(tài)的分類(lèi)模型;根據(jù)所述分類(lèi)模型監(jiān)測(cè)用戶駕駛狀態(tài)。上述基于多源視覺(jué)信息融合的疲勞駕駛檢測(cè)方法,將可見(jiàn)光下的面部視覺(jué)特征和面部紅外熱像圖紋理信息在特征層進(jìn)行融合,可以綜合視覺(jué)信號(hào)和生理信號(hào)評(píng)價(jià)疲勞狀態(tài),檢測(cè)結(jié)果較為客觀。

    3、本申請(qǐng)的專利技術(shù)人認(rèn)為現(xiàn)有技術(shù)中存在以下問(wèn)題:

    4、(1)在訓(xùn)練數(shù)據(jù)采集和利用方面,常見(jiàn)的監(jiān)控系統(tǒng)數(shù)據(jù)不足以支撐有效的模型訓(xùn)練,導(dǎo)致模型泛化能力差。

    5、(2)現(xiàn)有的神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中存在收斂速度慢的問(wèn)題,影響訓(xùn)練效率。

    6、(3)現(xiàn)有的特征提取方法在處理高維數(shù)據(jù)時(shí)常常導(dǎo)致較大的信息丟失,影響了模型的檢測(cè)精度和可靠性。

    7、(4)現(xiàn)有的分類(lèi)器在處理復(fù)雜數(shù)據(jù)時(shí)容易出現(xiàn)梯度消失問(wèn)題,降低了模型在復(fù)雜狀況下的分類(lèi)效果和穩(wěn)定性。

    8、基于此,開(kāi)發(fā)一種高效、自動(dòng)化并能實(shí)時(shí)監(jiān)控和評(píng)估司機(jī)疲勞狀態(tài)的方法顯得尤為重要。


    技術(shù)實(shí)現(xiàn)思路

    1、有鑒于此,基于現(xiàn)有技術(shù)中存在的機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)準(zhǔn)確性較低,,難以針對(duì)機(jī)車(chē)司機(jī)疲勞狀態(tài)場(chǎng)景形成大規(guī)模訓(xùn)練集,且不同地點(diǎn)或設(shè)備捕獲的圖像之間存在較大偏差,難以直接用于模型訓(xùn)練的問(wèn)題,本專利技術(shù)提出了一種機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法、裝置、設(shè)備及介質(zhì)。

    2、基于以上目的,本專利技術(shù)的一個(gè)方面,提供了一種機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,包括以下步驟:

    3、s1、建立機(jī)車(chē)司機(jī)疲勞狀態(tài)的用戶圖像樣本數(shù)據(jù)集并標(biāo)記疲勞等級(jí);

    4、s2、將用戶圖像樣本數(shù)據(jù)集輸入生成對(duì)抗網(wǎng)絡(luò)模型,訓(xùn)練生成對(duì)抗網(wǎng)絡(luò)模型的生成器和判別器以進(jìn)行數(shù)據(jù)擴(kuò)充;

    5、s3、將數(shù)據(jù)擴(kuò)充后的用戶圖像樣本數(shù)據(jù)集分別輸入特征提取模型、特征降維模型和分類(lèi)器模型,基于全連接神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取模型訓(xùn)練、基于正則化損失的自編碼器算法進(jìn)行特征降維模型訓(xùn)練,基于高階神經(jīng)網(wǎng)絡(luò)算法進(jìn)行分類(lèi)器模型訓(xùn)練,得到訓(xùn)練完成的用戶圖像樣本模型;

    6、s4、基于訓(xùn)練完成的用戶圖像樣本模型,實(shí)時(shí)監(jiān)測(cè)機(jī)車(chē)司機(jī)的疲勞等級(jí),并給出相應(yīng)的安全措施;

    7、其中,訓(xùn)練生成對(duì)抗網(wǎng)絡(luò)模型的生成器和判別器包括利用梯度下降法調(diào)整生成器和判別器的參數(shù),并結(jié)合動(dòng)態(tài)調(diào)整函數(shù)進(jìn)行生成器和判別器的參數(shù)更新;

    8、通過(guò)用戶圖像樣本數(shù)據(jù)集的質(zhì)量和判別器的判別結(jié)果,動(dòng)態(tài)調(diào)整生成器的訓(xùn)練重點(diǎn),采用動(dòng)態(tài)優(yōu)化策略,根據(jù)判別器的反饋動(dòng)態(tài)調(diào)整生成器的訓(xùn)練重點(diǎn);

    9、在每個(gè)訓(xùn)練周期后,對(duì)生成的圖像進(jìn)行特征級(jí)的評(píng)估,根據(jù)細(xì)粒度特征模塊的反饋調(diào)整損失函數(shù),優(yōu)先提升特征表達(dá)不足的區(qū)域。

    10、在一些實(shí)施例中,生成器和判別器的參數(shù)表示為:

    11、

    12、

    13、式中,是生成器的損失函數(shù),是判別器的損失函數(shù),是對(duì)抗訓(xùn)練的學(xué)習(xí)率,為第次迭代的生成器的參數(shù),為第次迭代的判別器的參數(shù),為第次迭代的生成器的參數(shù),為第次迭代的判別器的參數(shù),為生成器的損失函數(shù)關(guān)于生成器參數(shù)的梯度,為判別器的損失函數(shù)關(guān)于判別器參數(shù)的梯度,是動(dòng)態(tài)調(diào)整函數(shù),為復(fù)合損失函數(shù)關(guān)于生成器參數(shù)的梯度,為復(fù)合損失函數(shù),為復(fù)合損失函數(shù)關(guān)于判別器參數(shù)的梯度。

    14、在一些實(shí)施例中,動(dòng)態(tài)調(diào)整函數(shù)的計(jì)算方式表示為:

    15、

    16、式中,代表生成的圖像數(shù)據(jù),是特征重標(biāo)定因子,表征動(dòng)態(tài)調(diào)整的調(diào)整強(qiáng)度;為偏導(dǎo)數(shù)符號(hào);

    17、動(dòng)態(tài)調(diào)整函數(shù)利用特征重標(biāo)定因子影響判別器的判別側(cè)重點(diǎn),促使生成器在生成新圖像時(shí)關(guān)注與疲勞狀態(tài)高度相關(guān)的特征;

    18、生成圖像和真實(shí)圖像特征的條件概率分布的計(jì)算方式表示為:

    19、

    20、式中,代表真實(shí)圖像數(shù)據(jù),是和兩者交集的概率,是真實(shí)圖像特征的邊緣概率,表示生成圖像和真實(shí)圖像特征的條件概率分布;

    21、根據(jù)生成圖像和真實(shí)圖像特征的條件概率分布計(jì)算特征重標(biāo)定因子,計(jì)算方式表示為:

    22、

    23、式中,是用于調(diào)節(jié)重標(biāo)定影響的尺度參數(shù)。

    24、在一些實(shí)施例中,特征增強(qiáng)函數(shù)的計(jì)算方式表示為:

    25、

    26、式中,為特征增強(qiáng)函數(shù),代表真實(shí)圖像數(shù)據(jù),是生成圖像的第個(gè)特征,是真實(shí)圖像的第個(gè)特征,是第個(gè)特征的特征權(quán)重,是相似度計(jì)算函數(shù),是特征增強(qiáng)系數(shù);為圖像的特征數(shù)量,也即像素點(diǎn)數(shù)量;

    27、相似度計(jì)算函數(shù)的計(jì)算方式表示為:

    28、

    29、式中,表示生成圖像和真實(shí)圖像在第個(gè)特征維度的歐氏距離的平方,為l2范數(shù),計(jì)算方式同歐氏距離計(jì)算方式;是第個(gè)特征的尺度參數(shù),為訓(xùn)練參數(shù),通過(guò)梯度下降法進(jìn)行調(diào)整,用于調(diào)整不同特征對(duì)總體相似度計(jì)算的貢獻(xiàn);表示以自然常數(shù)為底的指數(shù)函數(shù)。

    30、在一些實(shí)施例中,將特征增強(qiáng)函數(shù)表征為像素級(jí)損失,結(jié)合像素級(jí)損失和特征級(jí)損失進(jìn)行復(fù)合損失函數(shù)的調(diào)整,復(fù)合損失函數(shù)的計(jì)算方式表示為:

    31、

    32、式中,表示特征級(jí)損失,是復(fù)合損失平衡系數(shù);

    33、特征級(jí)損失的計(jì)算方式表示為:

    34、

    35、式中,和分別是生成和真實(shí)圖像的第個(gè)樣本的第個(gè)特征;為當(dāng)前批次輸入的樣本數(shù)量;是歸一化常數(shù),確保不同特征間的損失可比性。

    36、在一些實(shí)施例中,步驟s3中基于全連接神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取模型訓(xùn)練具體為:

    37、s301、初始化神經(jīng)網(wǎng)絡(luò)的參數(shù),并設(shè)置初始的調(diào)整頻率和調(diào)整振幅,表示為:

    38、

    39、

    40、式中,為調(diào)整頻率,為調(diào)整頻率的初始值,為調(diào)整振幅,為調(diào)整振幅的初始值,是根據(jù)網(wǎng)絡(luò)深度自適應(yīng)調(diào)整的超參數(shù),是根據(jù)網(wǎng)絡(luò)寬度自適應(yīng)調(diào)整的超參數(shù),為調(diào)整振幅的權(quán)重因子,為雙曲正切函數(shù),為調(diào)整振幅的賦值參數(shù);

    41、s302、輸入樣本并進(jìn)行前向傳播,計(jì)算網(wǎng)絡(luò)的輸出和實(shí)際輸出之間的誤差,表示為:

    42、

    43、

    44、式中,為sigmoid激活函數(shù);為神經(jīng)網(wǎng)絡(luò)的輸出,由神經(jīng)網(wǎng)絡(luò)最后一層神經(jīng)元的輸出經(jīng)softmax計(jì)算得到;為神經(jīng)網(wǎng)絡(luò)的權(quán)重,為神經(jīng)網(wǎng)絡(luò)的偏置,為神經(jīng)網(wǎng)絡(luò)的本文檔來(lái)自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】

    1.一種機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,其特征在于,包括以下步驟:

    2.根據(jù)權(quán)利要求1所述的機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,其特征在于,所述生成器和判別器的參數(shù)表示為:

    3.根據(jù)權(quán)利要求1所述的機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,其特征在于,所述動(dòng)態(tài)調(diào)整函數(shù)的計(jì)算方式表示為:

    4.根據(jù)權(quán)利要求1所述的機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,其特征在于,特征增強(qiáng)函數(shù)的計(jì)算方式表示為:

    5.根據(jù)權(quán)利要求4所述的機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,其特征在于,將所述特征增強(qiáng)函數(shù)表征為像素級(jí)損失,結(jié)合像素級(jí)損失和特征級(jí)損失進(jìn)行復(fù)合損失函數(shù)的調(diào)整,所述復(fù)合損失函數(shù)的計(jì)算方式表示為:

    6.根據(jù)權(quán)利要求1所述的機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,其特征在于,所述步驟S3中基于全連接神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取模型訓(xùn)練具體為:

    7.根據(jù)權(quán)利要求3所述的機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,其特征在于,所述自編碼器的激活函數(shù)輸出特征的重要性評(píng)分的計(jì)算方式表示為:

    8.根據(jù)權(quán)利要求1所述的機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,其特征在于,通過(guò)統(tǒng)計(jì)所述激活值的稀疏性來(lái)判斷神經(jīng)元的重要性,所述自編碼器的第層神經(jīng)元的稀疏性度量的計(jì)算方式表示為:

    9.根據(jù)權(quán)利要求1所述的機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,其特征在于,所述基于高階神經(jīng)網(wǎng)絡(luò)算法進(jìn)行分類(lèi)器模型訓(xùn)練包括:

    10.根據(jù)權(quán)利要求1所述的機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,其特征在于,采用梯度修正策略計(jì)算高階神經(jīng)網(wǎng)絡(luò)的參數(shù)增量,表示為:

    ...

    【技術(shù)特征摘要】

    1.一種機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,其特征在于,包括以下步驟:

    2.根據(jù)權(quán)利要求1所述的機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,其特征在于,所述生成器和判別器的參數(shù)表示為:

    3.根據(jù)權(quán)利要求1所述的機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,其特征在于,所述動(dòng)態(tài)調(diào)整函數(shù)的計(jì)算方式表示為:

    4.根據(jù)權(quán)利要求1所述的機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,其特征在于,特征增強(qiáng)函數(shù)的計(jì)算方式表示為:

    5.根據(jù)權(quán)利要求4所述的機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法,其特征在于,將所述特征增強(qiáng)函數(shù)表征為像素級(jí)損失,結(jié)合像素級(jí)損失和特征級(jí)損失進(jìn)行復(fù)合損失函數(shù)的調(diào)整,所述復(fù)合損失函數(shù)的計(jì)算方式表示為:

    6.根據(jù)權(quán)利要求1所述的機(jī)車(chē)司機(jī)疲勞狀態(tài)檢測(cè)方法...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:付俊男蔡志偉王秀巖高磊王娜鄭一飛顏明臧擎任子豪李顏東
    申請(qǐng)(專利權(quán))人:中車(chē)大連機(jī)車(chē)車(chē)輛有限公司
    類(lèi)型:發(fā)明
    國(guó)別省市:

    網(wǎng)友詢問(wèn)留言 已有0條評(píng)論
    • 還沒(méi)有人留言評(píng)論。發(fā)表了對(duì)其他瀏覽者有用的留言會(huì)獲得科技券。

    1
    主站蜘蛛池模板: 无码无需播放器在线观看| 亚洲精品无码高潮喷水A片软| 国产丝袜无码一区二区三区视频 | 亚洲中文字幕无码mv| 亚洲AV无码一区二区乱子仑| 伊人久久综合无码成人网| 无码一区二区波多野结衣播放搜索| 狠狠躁狠狠爱免费视频无码| 孕妇特级毛片WW无码内射| 中文国产成人精品久久亚洲精品AⅤ无码精品| 久久久久琪琪去精品色无码| 亚洲Av无码乱码在线znlu| 亚洲a∨无码一区二区| 青青草无码免费一二三区| 亚洲永久无码3D动漫一区| av无码东京热亚洲男人的天堂| 特级毛片内射www无码| 无码精品A∨在线观看| 亚洲va无码专区国产乱码| 久久久久亚洲av成人无码电影| 夫妻免费无码V看片| 免费a级毛片无码a∨蜜芽试看| 久久午夜伦鲁片免费无码| 少妇人妻偷人精品无码视频| 国产精品无码无卡在线播放| 国产成人无码av| 国产三级无码内射在线看| 永久免费av无码入口国语片| 免费无码又爽又刺激网站直播| 亚洲AV无码成人精品区大在线| 白嫩无码人妻丰满熟妇啪啪区百度 | 亚洲午夜福利AV一区二区无码| 亚洲一级特黄大片无码毛片 | 国产精品亚韩精品无码a在线 | 亚洲AV无码专区亚洲AV伊甸园| 亚洲精品无码鲁网中文电影| 中文字幕无码精品三级在线电影| 中文字幕无码av激情不卡久久| 国产aⅴ无码专区亚洲av| 亚洲国产AV无码专区亚洲AV| 日韩人妻无码精品久久免费一|