System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內(nèi)的位置。 參數(shù)名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() 乱人伦人妻中文字幕无码久久网,国产成人无码专区,一区二区三区无码视频免费福利
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當(dāng)前位置: 首頁 > 專利查詢>西安科技大學(xué)專利>正文

    基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng)技術(shù)方案

    技術(shù)編號:44506964 閱讀:5 留言:0更新日期:2025-03-07 13:05
    本發(fā)明專利技術(shù)公開了一種基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),所述方法采用改進(jìn)的YOLOv10n模型作為檢測器獲取視頻場景內(nèi)的目標(biāo)檢測結(jié)果。考慮室外天氣對檢測結(jié)果的影響,通過融合動態(tài)卷積的注意力特征融合結(jié)構(gòu)DC?FFA,使得在復(fù)雜背景下檢測結(jié)果更加準(zhǔn)確。融合DeepSort多目標(biāo)跟蹤模型,通過匈牙利匹配和卡爾曼濾波對行人進(jìn)行跟蹤,設(shè)計(jì)SEAMNet36行人重識別網(wǎng)絡(luò),能更好的提取行人的外觀特征。在計(jì)數(shù)方面,基于雙凸軌線測算的計(jì)數(shù)算法,可以統(tǒng)計(jì)畫面中行人數(shù)量、計(jì)算進(jìn)入和離開監(jiān)控畫面的行人數(shù)量。本發(fā)明專利技術(shù)在提高跟準(zhǔn)精準(zhǔn)度的同時(shí)降低模型參數(shù)量,通過更輕量的網(wǎng)絡(luò)實(shí)現(xiàn)更強(qiáng)的表觀特征提取能力,改善了現(xiàn)有技術(shù)的漏檢、誤檢、ID跳變次數(shù)過多等問題,提高了檢測和跟蹤效果。

    【技術(shù)實(shí)現(xiàn)步驟摘要】

    本專利技術(shù)涉及計(jì)算機(jī)視覺和行人檢測,具體涉及基于改進(jìn)yolov10n和deepsort的景區(qū)行人檢測、跟蹤、計(jì)數(shù)系統(tǒng)。


    技術(shù)介紹

    1、景區(qū)行人計(jì)數(shù)研究是推動景區(qū)智能化管理的重要技術(shù)手段,對提升游客體驗(yàn)、優(yōu)化景區(qū)資源配置、保障安全等方面具有深遠(yuǎn)的影響。通過精確的行人計(jì)數(shù)技術(shù),管理者可以實(shí)時(shí)掌握景區(qū)內(nèi)的客流動態(tài),合理安排安保人員、清潔服務(wù)和游客引導(dǎo),同時(shí)保障景區(qū)的行人安全,為景區(qū)規(guī)劃和運(yùn)營決策提供可靠的數(shù)據(jù)支持。這種數(shù)據(jù)驅(qū)動的管理方式不僅可以提高景區(qū)的運(yùn)營效率,還能為經(jīng)濟(jì)效益的提升提供依據(jù),進(jìn)而促進(jìn)景區(qū)的長期繁榮與穩(wěn)定發(fā)展。景區(qū)中的行人可能因服飾、姿態(tài)、角度以及天氣、光照等外部條件的變化而難以準(zhǔn)確檢測,傳統(tǒng)檢測方法在面對這些變化時(shí)往往表現(xiàn)出較低的魯棒性。隨著計(jì)算機(jī)硬件性能的快速發(fā)展,基于深度學(xué)習(xí)的人工智能技術(shù)在行人檢測領(lǐng)域取得了顯著進(jìn)展。深度學(xué)習(xí)模型能夠自動從海量數(shù)據(jù)中提取高層次特征,擺脫了傳統(tǒng)方法對手工設(shè)計(jì)特征的依賴,更好地適應(yīng)了景區(qū)中多樣化、復(fù)雜的行人行為和環(huán)境變化。深度學(xué)習(xí)模型通過在大量不同場景下的訓(xùn)練,能夠自動學(xué)習(xí)如何分辨行人與背景,具備更強(qiáng)的適應(yīng)能力和檢測精度。這些新技術(shù)的應(yīng)用為景區(qū)智能化管理提供了更高效、精準(zhǔn)的工具,對提升景區(qū)整體管理水平、保障景區(qū)行人安全、促進(jìn)旅游業(yè)的持續(xù)繁榮具有重要意義。

    2、在目前的深度學(xué)習(xí)中,yolov10n是yolo系列的最新一代物體檢測模型,延續(xù)了該系列在實(shí)時(shí)檢測方面的優(yōu)越性。盡管yolov10n檢測效果好,但是在復(fù)雜場景中識別行人時(shí)仍存在一些問題。例如景區(qū)行人計(jì)數(shù)不僅要處理復(fù)雜的動態(tài)背景,如景區(qū)內(nèi)的樹木、建筑物、其他游客或移動物體,還需在多樣的環(huán)境下實(shí)現(xiàn)高精度計(jì)數(shù),如在雨天、霧天和人群密集等場景,確保檢測結(jié)果的穩(wěn)定性。


    技術(shù)實(shí)現(xiàn)思路

    1、針對上述問題,本專利技術(shù)公開了一種基于改進(jìn)yolov10n和deepsort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),本專利技術(shù)將改進(jìn)的yolov10n模型和改進(jìn)的deepsort多目標(biāo)跟蹤算法進(jìn)行融合,其在保證行人檢測準(zhǔn)確率的前提下,能有效降低模型參數(shù)并且實(shí)現(xiàn)準(zhǔn)確計(jì)數(shù),從而解決因景區(qū)環(huán)境背景復(fù)雜、人群密集,導(dǎo)致的漏檢和誤檢情況。

    2、為了實(shí)現(xiàn)上述目的,本專利技術(shù)所采用的技術(shù)方案是,基于改進(jìn)yolov10n和deepsort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),具體按照如下步驟實(shí)施:

    3、s1:獲取景區(qū)、商場、街道等行人密集地方的行人圖片,構(gòu)建數(shù)據(jù)集;

    4、s2:對數(shù)據(jù)集中的行人圖像進(jìn)行數(shù)據(jù)增強(qiáng),獲得經(jīng)過數(shù)據(jù)增強(qiáng)的數(shù)據(jù)集;

    5、s3:構(gòu)建yolov10n行人檢測網(wǎng)絡(luò)模型;

    6、s4:對yolov10n模型進(jìn)行改進(jìn),得到改進(jìn)yolov10n模型;

    7、s5:使用s2獲得的經(jīng)過數(shù)據(jù)增強(qiáng)的數(shù)據(jù)集對改進(jìn)的yolov10n網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行訓(xùn)練,得到訓(xùn)練好的行人檢測模型;

    8、s6:將待檢測的行人圖像送入訓(xùn)練好的yolov10n模型中,得到行人的位置信息和檢測框信息;

    9、s7:對deepsort模型進(jìn)行改進(jìn),得到改進(jìn)后的deepsort模型;

    10、s8:將s5檢測到的信息送入改進(jìn)的deepsort模型中,得到行人目標(biāo)框的序號;

    11、s9:經(jīng)過基于雙凸軌線測算的計(jì)數(shù)算法,得出進(jìn)入和離開的行人數(shù)量;

    12、本專利技術(shù)的特征還在于,

    13、s1具體為:在正常光照環(huán)境下通過佳能800d相機(jī)獲取行人圖像構(gòu)建數(shù)據(jù)集,將構(gòu)建的數(shù)據(jù)集按照8:1:1的方式劃分為訓(xùn)練集、驗(yàn)證集和測試集,然后對數(shù)據(jù)集中的行人圖像使用makesense在線標(biāo)注工具進(jìn)行精細(xì)的標(biāo)注,若行人圖像中包含行人,則將該行人標(biāo)記為people。

    14、s2具體為:將數(shù)據(jù)集中的行人圖像進(jìn)行圖像裁剪、平移、旋轉(zhuǎn)、改變圖像亮度等圖像增強(qiáng)方法,將每個(gè)行人圖像在數(shù)量上進(jìn)行增強(qiáng),將原來一張行人圖像擴(kuò)充到四張。

    15、s3具體為:構(gòu)建yolov10n網(wǎng)絡(luò)模型,其整體結(jié)構(gòu)由四部分組成,其以此連接來完成目標(biāo)檢測任務(wù);首先是輸入端包括馬賽克mosaic、數(shù)據(jù)增強(qiáng)和自適應(yīng)錨框計(jì)算等功能;接下來是主干網(wǎng)絡(luò)backbone采用了cspdarknet架構(gòu),由多個(gè)conv、c2f、scdown、sppf等模塊組成,用于提取圖像特征;其次是neck部分,頸部網(wǎng)絡(luò)由特征金字塔網(wǎng)絡(luò)fpn和路徑聚合網(wǎng)絡(luò)pan兩部分組成,用于融合高層與底層的特征;最后是head部分,用于生成目標(biāo)檢測的預(yù)測結(jié)果。

    16、s4具體為:在原始yolov10n的主干網(wǎng)絡(luò)backbone中添加基于輕量化動態(tài)卷積dynamic?convolution的注意力特征融合結(jié)構(gòu)dc-ffa,該結(jié)構(gòu)能夠在不增加模型參數(shù)量的前提下,保留淺層信息并將其傳遞到深層,從而增強(qiáng)模型的表征能力,它不僅能夠融合所有特征,還能夠自適應(yīng)地學(xué)習(xí)不同層級特征信息的不同權(quán)重;將dc-ffa結(jié)構(gòu)作為改進(jìn)后模型網(wǎng)絡(luò)結(jié)構(gòu)的第一層,同時(shí)將backbone中最后一層原本的sppf模塊替換為simsppf模塊,simsppf模塊通過簡化操作減少了不必要的計(jì)算復(fù)雜度,優(yōu)化了特征融合過程中的計(jì)算和存儲操作,減輕了網(wǎng)絡(luò)的整體重量,得以減少計(jì)算復(fù)雜度并提升模型的推理速度;最后將neck部分fpn的concat模塊融入重復(fù)加權(quán)雙向特征金字塔網(wǎng)絡(luò)bifpn得到concat_bifpn模塊,允許特征在網(wǎng)絡(luò)中的不同尺度間進(jìn)行雙向流動。

    17、s5具體為:將訓(xùn)練集輸入改進(jìn)后的yolov10n模型進(jìn)行訓(xùn)練;并且訓(xùn)練參數(shù)設(shè)置如下:學(xué)習(xí)率=0.001,動量=0.937,輸入圖像尺寸為640×640,訓(xùn)練批次為8,訓(xùn)練輪數(shù)為300輪,使用sgd優(yōu)化器,后10輪關(guān)閉mosaic圖像增強(qiáng)。

    18、進(jìn)一步地,通過召回率、精確率和平均精度均值對訓(xùn)練后的所述改進(jìn)yolov10n模型進(jìn)行評價(jià),評價(jià)公式表示分別為:

    19、精準(zhǔn)率:

    20、召回率:

    21、平均精度:ap=∫01p(r)dr

    22、平均精度均值:

    23、式子中:其中tp代表正確判定為正樣本的個(gè)數(shù),fp代表錯(cuò)誤判定為正樣本的個(gè)數(shù),fn代表錯(cuò)誤判定為負(fù)樣本的個(gè)數(shù),n代表類別總數(shù),ap代表pr曲線所圍成的面積,map代表所有類別ap的均值。

    24、s7具體為:首先,設(shè)計(jì)了一種全新的行人重識別網(wǎng)絡(luò)seamnet36,旨在替代原始行人重識別網(wǎng)絡(luò),seamnet36的核心創(chuàng)新在于其結(jié)構(gòu)優(yōu)化,將原本三層的basicblock提升到了5層,能夠更好地捕捉行人外觀的細(xì)微差異,從而提高在復(fù)雜場景中的識別能力。此外,其basicblock集成了seam注意力機(jī)制,使網(wǎng)絡(luò)能夠捕獲每個(gè)像素的上下文外觀信息,進(jìn)一步增強(qiáng)了模型對相似行人的區(qū)分能力。最后,原有的iou匹配策略被替換為更為先進(jìn)的powerful-iou匹配。這一新方法顯著提高了目標(biāo)匹配的準(zhǔn)確性和魯棒性,尤其在部分遮擋和行人密集的場景中,powerful-iou能夠更好地處理復(fù)雜的匹配情況。通過引入更靈活的匹配策略,該方法本文檔來自技高網(wǎng)...

    【技術(shù)保護(hù)點(diǎn)】

    1.基于YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,具體按照如下步驟實(shí)施:

    2.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述S1步驟具體為:在正常光照環(huán)境下通過佳能800D相機(jī)獲取行人圖像構(gòu)建數(shù)據(jù)集,將構(gòu)建的數(shù)據(jù)集按照8:1:1的方式劃分為訓(xùn)練集、驗(yàn)證集和測試集,然后對數(shù)據(jù)集中的行人圖像使用Makesense在線標(biāo)注工具進(jìn)行精細(xì)的標(biāo)注,若行人圖像中包含行人,則將該行人標(biāo)記為person。

    3.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述S2步驟具體為:將數(shù)據(jù)集中的行人圖像進(jìn)行圖像裁剪、平移、旋轉(zhuǎn)、改變圖像亮度等圖像增強(qiáng)方法,將每個(gè)行人圖像在數(shù)量上進(jìn)行增強(qiáng),將原來一張行人圖像擴(kuò)充到四張。

    4.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述S3步驟具體為:構(gòu)建原始YOLOv10n網(wǎng)絡(luò)模型,其整體結(jié)構(gòu)由四部分組成,其以此連接來完成目標(biāo)檢測任務(wù);首先是輸入端包括馬賽克Mosaic、數(shù)據(jù)增強(qiáng)和自適應(yīng)錨框計(jì)算等功能;接下來是主干網(wǎng)絡(luò)Backbone采用了CSPDarknet架構(gòu),由多個(gè)Conv、C2f、SCDown、SPPF等模塊組成,用于提取圖像特征;其次是Neck部分,頸部網(wǎng)絡(luò)由特征金字塔網(wǎng)絡(luò)FPN和路徑聚合網(wǎng)絡(luò)PAN兩部分組成,用于融合高層與底層的特征;最后是Head部分,用于生成目標(biāo)檢測的預(yù)測結(jié)果。

    5.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述S4步驟具體為:在原始YOLOv10n的主干網(wǎng)絡(luò)Backbone中添加基于輕量化動態(tài)卷積Dynamic?Convolution的注意力特征融合結(jié)構(gòu)DC-FFA,該結(jié)構(gòu)能夠在不增加模型參數(shù)量的前提下,保留淺層信息并將其傳遞到深層,從而增強(qiáng)模型的表征能力,它不僅能夠融合所有特征,還能夠自適應(yīng)地學(xué)習(xí)不同層級特征信息的不同權(quán)重;將DC-FFA結(jié)構(gòu)作為改進(jìn)后模型網(wǎng)絡(luò)結(jié)構(gòu)的第一層,同時(shí)將Backbone中最后一層原本的SPPF模塊替換為SimSPPF模塊,SimSPPF模塊通過簡化操作減少了不必要的計(jì)算復(fù)雜度,優(yōu)化了特征融合過程中的計(jì)算和存儲操作,減輕了網(wǎng)絡(luò)的整體重量,得以減少計(jì)算復(fù)雜度并提升模型的推理速度;最后將Neck部分FPN的Concat模塊融入重復(fù)加權(quán)雙向特征金字塔網(wǎng)絡(luò)BiFPN得到Concat_BiFPN模塊,允許特征在網(wǎng)絡(luò)中的不同尺度間進(jìn)行雙向流動。

    6.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述S5步驟具體為:將訓(xùn)練集輸入改進(jìn)后的YOLOv10n模型進(jìn)行訓(xùn)練;并且訓(xùn)練參數(shù)設(shè)置如下:學(xué)習(xí)率=0.001,動量=0.937,輸入圖像尺寸為640×640,訓(xùn)練批次為8,訓(xùn)練輪數(shù)為300輪,使用SGD優(yōu)化器,后10輪關(guān)閉Mosaic圖像增強(qiáng)。

    7.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,通過精準(zhǔn)率、召回率和平均精度均值對訓(xùn)練后的所述改進(jìn)YOLOv10n模型進(jìn)行評價(jià),評價(jià)公式分別為:

    8.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述S7步驟具體為:首先,設(shè)計(jì)了新的行人重識別網(wǎng)絡(luò)SEAMNet36替換原始ReID網(wǎng)絡(luò),其在原本重識別網(wǎng)絡(luò)的基礎(chǔ)上將殘差層加至五層,且將每層的BasicBlock嵌入自監(jiān)督等變注意力機(jī)制SEAM,提升行人再識別的精度,尤其是在復(fù)雜背景和相似外觀行人中能更好地區(qū)分行人;其次,將原始的IOU匹配替換為Powerful-IOU匹配,提高對目標(biāo)匹配的準(zhǔn)確度和魯棒性,特別是在部分遮擋和行人密集的場景下,匹配效果更好。

    9.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述S8步驟具體為:根據(jù)S6中第一幀行人檢測框,創(chuàng)建初始軌跡,并設(shè)定初始ID;使用卡爾曼濾波對下一幀行人檢測框的位置進(jìn)行預(yù)測,得到行人預(yù)測框;對所述下一幀行人檢測框和所述行人預(yù)測框進(jìn)行級聯(lián)匹配和Powerful-IOU匹配,得到匹配結(jié)果;根據(jù)所述匹配結(jié)果對所述ID進(jìn)行更新。

    10.根據(jù)權(quán)利要求1所述的基于改進(jìn)YOLOv10n和DeepSort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,通過多目標(biāo)跟蹤準(zhǔn)確率MOTA、多目標(biāo)跟蹤精度MOTP和編碼變換次數(shù)IDS等評價(jià)指標(biāo)對訓(xùn)練后的所述改進(jìn)DeepSort模型進(jìn)行評價(jià),評價(jià)公...

    【技術(shù)特征摘要】

    1.基于yolov10n和deepsort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,具體按照如下步驟實(shí)施:

    2.根據(jù)權(quán)利要求1所述的基于改進(jìn)yolov10n和deepsort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述s1步驟具體為:在正常光照環(huán)境下通過佳能800d相機(jī)獲取行人圖像構(gòu)建數(shù)據(jù)集,將構(gòu)建的數(shù)據(jù)集按照8:1:1的方式劃分為訓(xùn)練集、驗(yàn)證集和測試集,然后對數(shù)據(jù)集中的行人圖像使用makesense在線標(biāo)注工具進(jìn)行精細(xì)的標(biāo)注,若行人圖像中包含行人,則將該行人標(biāo)記為person。

    3.根據(jù)權(quán)利要求1所述的基于改進(jìn)yolov10n和deepsort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述s2步驟具體為:將數(shù)據(jù)集中的行人圖像進(jìn)行圖像裁剪、平移、旋轉(zhuǎn)、改變圖像亮度等圖像增強(qiáng)方法,將每個(gè)行人圖像在數(shù)量上進(jìn)行增強(qiáng),將原來一張行人圖像擴(kuò)充到四張。

    4.根據(jù)權(quán)利要求1所述的基于改進(jìn)yolov10n和deepsort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述s3步驟具體為:構(gòu)建原始yolov10n網(wǎng)絡(luò)模型,其整體結(jié)構(gòu)由四部分組成,其以此連接來完成目標(biāo)檢測任務(wù);首先是輸入端包括馬賽克mosaic、數(shù)據(jù)增強(qiáng)和自適應(yīng)錨框計(jì)算等功能;接下來是主干網(wǎng)絡(luò)backbone采用了cspdarknet架構(gòu),由多個(gè)conv、c2f、scdown、sppf等模塊組成,用于提取圖像特征;其次是neck部分,頸部網(wǎng)絡(luò)由特征金字塔網(wǎng)絡(luò)fpn和路徑聚合網(wǎng)絡(luò)pan兩部分組成,用于融合高層與底層的特征;最后是head部分,用于生成目標(biāo)檢測的預(yù)測結(jié)果。

    5.根據(jù)權(quán)利要求1所述的基于改進(jìn)yolov10n和deepsort的輕量化景區(qū)行人計(jì)數(shù)系統(tǒng),其特征在于,所述s4步驟具體為:在原始yolov10n的主干網(wǎng)絡(luò)backbone中添加基于輕量化動態(tài)卷積dynamic?convolution的注意力特征融合結(jié)構(gòu)dc-ffa,該結(jié)構(gòu)能夠在不增加模型參數(shù)量的前提下,保留淺層信息并將其傳遞到深層,從而增強(qiáng)模型的表征能力,它不僅能夠融合所有特征,還能夠自適應(yīng)地學(xué)習(xí)不同層級特征信息的不同權(quán)重;將dc-ffa結(jié)構(gòu)作為改進(jìn)后模型網(wǎng)絡(luò)結(jié)構(gòu)的第一層,同時(shí)將backbone中最后一層原本的sppf模塊替換為simsppf模塊,simsppf模塊通過簡化操作減少了不必要的計(jì)算復(fù)雜度,優(yōu)化了特征融合過程中的計(jì)算和存儲操作,減輕了網(wǎng)絡(luò)的整體重量,得以減少計(jì)算復(fù)雜度并提升模型的推理速度;最后將neck部分fpn的concat模塊融入重復(fù)加權(quán)雙向特征金字塔網(wǎng)絡(luò)bifpn得到concat_bifpn模塊,允許特征...

    【專利技術(shù)屬性】
    技術(shù)研發(fā)人員:王苗張小艷
    申請(專利權(quán))人:西安科技大學(xué)
    類型:發(fā)明
    國別省市:

    網(wǎng)友詢問留言 已有0條評論
    • 還沒有人留言評論。發(fā)表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲Av无码乱码在线观看性色 | 精品无码人妻夜人多侵犯18| 日韩精品无码一区二区三区四区| 永久免费av无码网站yy| 亚洲熟妇无码八V在线播放| 精品无码专区亚洲| 色情无码WWW视频无码区小黄鸭| 无码国产精成人午夜视频不卡| 亚洲国产精品无码久久一区二区| 亚洲AV日韩AV永久无码色欲| 无码av最新无码av专区| h无码动漫在线观看| 久久亚洲精品无码网站| 久久久久亚洲av无码专区喷水| 成人无码A区在线观看视频| 97无码免费人妻超级碰碰碰碰 | 日本精品人妻无码免费大全| 亚洲AV无码乱码国产麻豆穿越| 亚洲AV无码一区二三区| 久久亚洲精品无码gv| 四虎国产精品永久在线无码| 久久精品无码一区二区WWW| 亚洲AV中文无码乱人伦下载| 13小箩利洗澡无码视频网站免费| 人妻无码aⅴ不卡中文字幕| 国产成人无码精品久久久小说| 影音先锋中文无码一区| 久久亚洲日韩看片无码| 欧洲Av无码放荡人妇网站| 久久久久亚洲av无码专区蜜芽| 亚洲AⅤ永久无码精品AA| 免费无码又爽又黄又刺激网站| 成人无码嫩草影院| 蜜臀AV无码一区二区三区| 免费A级毛片无码免费视| 国产午夜无码片在线观看| 精品无码久久久久久久久| 国产激情无码一区二区三区| 亚洲av麻豆aⅴ无码电影| 东京热人妻无码人av| 亚洲国产精品无码一线岛国|