• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    基于自適應篩選的車輛危險測試場景識別方法技術

    技術編號:38210635 閱讀:26 留言:0更新日期:2023-07-21 17:02
    本發(fā)明專利技術公開了一種基于自適應篩選的車輛危險測試場景識別方法,涉及車輛安全技術領域。該方法通過同時使用兩種不同的分類器模型進行訓練,并基于原有訓練場景集的訓練過程基礎,引入額外的訓練場景參數(shù)分別進行兩個分類器模型的預測,再根據(jù)二者預測結果相異的訓練場景參數(shù),不斷更新分類器模型各自對應的訓練場景集進行自適應篩選訓練,實現(xiàn)兩個分類器模型逐漸自適應地優(yōu)化,達到提高車輛危險測試場景識別模型識別精度的技術效果。景識別模型識別精度的技術效果。景識別模型識別精度的技術效果。

    【技術實現(xiàn)步驟摘要】
    基于自適應篩選的車輛危險測試場景識別方法


    [0001]本專利技術涉及自動駕駛
    ,特別涉及一種基于自適應篩選的車輛危險測試場景識別方法。

    技術介紹

    [0002]隨著科技的進步,車輛自動駕駛技術正在快速發(fā)展,隨之也帶來大量自動駕駛技術的安全性問題?;诒粶y車輛在有限個場景中的表現(xiàn)理論上可評價該車在整個運行空間(Operational Design Domain)中的安全性。由于在真實駕駛環(huán)境中,理論上存在無數(shù)個場景,故找到被測車輛性能邊界,即安全運行區(qū)域與非安全運行區(qū)域之間的分界線具有重要意義。
    [0003]考慮在真實世界中執(zhí)行場景經濟費用高,測試效率低,使用仿真手段進行大部分場景執(zhí)行工作已經成為了行業(yè)內的共識。此外,由于被測系統(tǒng)在進行測試過程中不一定可獲得,例如,在開發(fā)初期,被測系統(tǒng)并不存在,因此需要使用替代模型(Surrogate Model,SM),比如,論文《Risk Assessment of Highly Automated Vehicles with Naturalistic Driving Data: A Surrogate
    ?
    based Optimization Method》公開了大量SM的獲取方法,包括高斯過程回歸模型和支持向量機回歸方法。
    [0004]現(xiàn)有技術通常使用單種分類模型測試結果,并結合優(yōu)化算法找到邊界性能表現(xiàn)邊界得到自動駕駛邊緣測試場景的生成模型,然而,單一分類模型在不確定性的控制方法上往往存在較大局限性,導致其生成模型對測試場景類型的識別精度往往較低。

    技術實現(xiàn)思路

    [0005]針對現(xiàn)有技術存在的上述問題,本專利技術提供了一種基于自適應篩選的車輛危險測試場景識別方法,通過同時使用支持向量基分類器(SVMC)和高斯過程分類器(GPC)進行訓練,并基于原有訓練場景集的訓練過程基礎,引入額外的訓練場景參數(shù)分別進行兩個分類器模型的預測,再根據(jù)二者預測結果相異的訓練場景參數(shù),不斷更新分類器模型各自對應的訓練場景集進行自適應篩選訓練,實現(xiàn)兩個分類器模型逐漸自適應地優(yōu)化,達到提高車輛危險測試場景識別模型識別精度的技術效果。本專利技術使用機器學習分類算法自適應篩選進行,可解決單一分類算法精度低,樣本篩選難的技術問題。
    [0006]根據(jù)本專利技術實施例的一個方面,提供一種基于自適應篩選的車輛危險測試場景識別方法,其特征在于,所述方法包括:S1:獲取預設數(shù)量組訓練場景參數(shù)作為初始場景集,對于所述初始場景集中的每組訓練場景參數(shù),根據(jù)所述訓練場景參數(shù)及預設危險度閾值計算得到對應的真實場景類型標簽,并根據(jù)各組訓練場景參數(shù)及對應的真實場景類型標簽生成初始訓練場景集;S2:將所述初始訓練場景集分別作為第一訓練場景集和第二訓練場景集,采用所述第一訓練場景集對第一分類器模型進行訓練,采用所述第二訓練場景集對第二分類器模型進行訓練;
    S3:再次獲取預設數(shù)量組訓練場景參數(shù)作為訓練場景集,分別采用訓練后的所述第一分類器模型和訓練后的所述第二分類器模型計算所述訓練場景集中預設數(shù)量組訓練場景參數(shù)對應的場景類型標簽,并將兩種分類器模型計算結果不匹配的訓練場景參數(shù)確定為差異場景集;S4:根據(jù)所述差異場景集分別更新所述第一訓練場景集和所述第二訓練場景集,并執(zhí)行S2中所述采用所述第一訓練場景集對第一分類器模型進行訓練,采用所述第二訓練場景集對第二分類器模型進行訓練的步驟;S5:在S2中所述第一分類器模型與所述第二分類器模型的訓練過程中,分別實時計算所述第一分類器模型與所述第二分類器模型對訓練場景參數(shù)所對應場景類型標簽的錯檢率,若檢測到存在錯檢率低于預設閾值的分類器模型,則將所述分類器模型確定為車輛危險測試場景識別模型。
    [0007]在一個優(yōu)選的實施例中,所述根據(jù)所述差異場景集分別更新所述第一訓練場景集和所述第二訓練場景集,并執(zhí)行S2中所述采用所述第一訓練場景集對第一分類器模型進行訓練,采用所述第二訓練場景集對第二分類器模型進行訓練的步驟,包括:對于所述差異場景集中的每組訓練場景參數(shù),根據(jù)所述訓練場景參數(shù)及預設危險度閾值計算得到對應的真實場景類型標簽;若檢測到S3中所述第一分類器模型計算所述訓練場景參數(shù)所得場景類型標簽與所述真實場景類型標簽不匹配,則將所述訓練場景參數(shù)及對應的真實場景類型標簽加入所述第一訓練場景集,并執(zhí)行S2中所述采用所述第一訓練場景集對第一分類器模型進行訓練的步驟;若檢測到S3中所述第二分類器模型計算所述訓練場景參數(shù)所得場景類型標簽與所述真實場景類型標簽不匹配,則將所述訓練場景參數(shù)及對應的真實場景類型標簽加入所述第二訓練場景集,并執(zhí)行S2中所述采用所述第二訓練場景集對第二分類器模型進行訓練的步驟。
    [0008]在一個優(yōu)選的實施例中,所述第一分類器模型為支持向量基分類器模型SVMC,所述第二分類器模型為高斯過程分類器模型GPC。
    [0009]在一個優(yōu)選的實施例中,所述方法還包括:在S2中所述第一分類器模型與所述第二分類器模型的訓練過程中,實時計算各個分類器模型的迭代次數(shù),若檢測到迭代次數(shù)達到預設次數(shù)時,將錯檢率較低的分類器模型確定為車輛危險測試場景識別模型。
    [0010]在一個優(yōu)選的實施例中,所述訓練場景參數(shù)包括前車初始速度、后車初始速度,前車與后車之間的初始距離,所述危險度閾值為碰撞時間。
    [0011]在一個優(yōu)選的實施例中,所述場景類型標簽包括危險場景類型和安全場景類型。
    [0012]與現(xiàn)有技術相比,本專利技術提供的一種基于自適應篩選的車輛危險測試場景識別方法具有以下優(yōu)點:本專利技術提供了一種基于自適應篩選的車輛危險測試場景識別方法,通過同時使用支持向量基分類器(SVMC)和高斯過程分類器(GPC)進行訓練,并基于原有訓練場景集的訓練過程基礎,引入額外的訓練場景參數(shù)分別進行兩個分類器模型的預測,再根據(jù)二者預測結果相異的訓練場景參數(shù),不斷更新分類器模型各自對應的訓練場景集進行自適應篩選訓
    練,實現(xiàn)兩個分類器模型逐漸自適應地優(yōu)化,達到提高車輛危險測試場景識別模型識別精度的技術效果。
    [0013]本專利技術使用機器學習分類算法自適應篩選進行,可解決單一分類算法精度低,樣本篩選難的技術問題。
    [0014]應當理解的是,以上的一般描述和后文的細節(jié)描述僅是示例性和解釋性的,并不能限制本申請。
    附圖說明
    [0015]此處的附圖被并入說明書中并構成本說明書的一部分,示出了符合本專利技術的實施例,并于說明書一起用于解釋本專利技術的原理。
    [0016]圖1是根據(jù)一示例性實施例示出的一種基于自適應篩選的車輛危險測試場景識別方法的流程示意圖。
    [0017]圖2是根據(jù)本專利技術一示例性實施例示出的一種基于自適應篩選的車輛危險測試場景識別方法的適用場景示意圖。
    [0018]圖3是各個車輛危險測試場景識別模型隨迭代次數(shù)變化的錯檢率變化示意圖。
    實施方式
    [0019]以下結合具體實施例(但不限于所舉實施例)與附圖詳細描述本專利技術,本實施例的具體方法僅供說明本專利技術,本專利技術的范圍不受實施例的限制,本專利技術在應用中可以作各種形態(tài)與結構的本文檔來自技高網
    ...

    【技術保護點】

    【技術特征摘要】
    1.一種基于自適應篩選的車輛危險測試場景識別方法,其特征在于,所述方法包括:S1:獲取預設數(shù)量組訓練場景參數(shù)作為初始場景集,對于所述初始場景集中的每組訓練場景參數(shù),根據(jù)所述訓練場景參數(shù)及預設危險度閾值計算得到對應的真實場景類型標簽,并根據(jù)各組訓練場景參數(shù)及對應的真實場景類型標簽生成初始訓練場景集;S2:將所述初始訓練場景集分別作為第一訓練場景集和第二訓練場景集,采用所述第一訓練場景集對第一分類器模型進行訓練,采用所述第二訓練場景集對第二分類器模型進行訓練;S3:再次獲取預設數(shù)量組訓練場景參數(shù)作為訓練場景集,分別采用訓練后的所述第一分類器模型和訓練后的所述第二分類器模型計算所述訓練場景集中預設數(shù)量組訓練場景參數(shù)對應的場景類型標簽,并將兩種分類器模型計算結果不匹配的訓練場景參數(shù)確定為差異場景集;S4:根據(jù)所述差異場景集分別更新所述第一訓練場景集和所述第二訓練場景集,并執(zhí)行S2中所述采用所述第一訓練場景集對第一分類器模型進行訓練,采用所述第二訓練場景集對第二分類器模型進行訓練的步驟;S5:在S2中所述第一分類器模型與所述第二分類器模型的訓練過程中,分別實時計算所述第一分類器模型與所述第二分類器模型對訓練場景參數(shù)所對應場景類型標簽的錯檢率,若檢測到存在錯檢率低于預設閾值的分類器模型,則將所述分類器模型確定為車輛危險測試場景識別模型。2.根據(jù)權利要求1所述的方法,其特征在于,所述根據(jù)所述差異場景集分別更新所述第一訓練場景集和所述第二訓練場景集,并執(zhí)行S2中所述采用所述第一訓練場景集對第一...

    【專利技術屬性】
    技術研發(fā)人員:蔡錦康鄧偉文,丁娟,
    申請(專利權)人:浙江天行健智能科技有限公司
    類型:發(fā)明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲精品无码久久久久A片苍井空| 亚洲国产成人精品无码区在线秒播| 亚洲午夜无码AV毛片久久| 白嫩无码人妻丰满熟妇啪啪区百度| 不卡无码人妻一区三区音频| 中文字幕无码第1页| 久久久精品天堂无码中文字幕| 国产精品无码专区在线观看| 亚洲日韩中文字幕无码一区 | 国产精品无码亚洲一区二区三区| 国产成人无码午夜视频在线观看| 亚洲AV无码成人专区片在线观看 | 久久久久av无码免费网| 人妻无码中文字幕免费视频蜜桃| 日韩精品中文字幕无码一区| 永久无码精品三区在线4| 无码人妻精品一区二区三区蜜桃| 一本色道久久HEZYO无码| 无码中文2020字幕二区| 亚洲av无码不卡久久| 国产午夜片无码区在线播放| 一区二区三区无码高清视频| 亚洲成在人线在线播放无码 | 人妻少妇精品无码专区漫画 | 亚洲国产成人精品无码区在线秒播| 人妻丰满熟妇AV无码区HD| 无码中文字幕一区二区三区| 精品多人p群无码| 麻豆aⅴ精品无码一区二区| 亚洲精品中文字幕无码蜜桃| 国产品无码一区二区三区在线蜜桃 | 狠狠久久精品中文字幕无码| 亚洲av无码无线在线观看| 少妇伦子伦精品无码STYLES| 国产办公室秘书无码精品99| 亚洲中文字幕久久精品无码喷水| 日韩精品无码一区二区三区AV | 久久精品中文字幕无码| 亚洲A∨无码无在线观看| 国产精品无码一区二区三区电影| 国产精品亚韩精品无码a在线|