System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind() HEYZO无码中文字幕人妻 ,性色av无码免费一区二区三区,亚洲综合无码精品一区二区三区
  • 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>

    一種基于RBF神經網絡剛度預測與強化學習的機器人力控制方法技術

    技術編號:44402781 閱讀:2 留言:0更新日期:2025-02-25 10:17
    本發明專利技術提供了一種基于RBF(Radial?Basis?Function)神經網絡剛度預測和強化學習的機器人力控制方法,具體步驟如下:首先,通過多組PD(Proportional?Derivative)控制收集機器人力跟蹤的經驗數據;然后,利用這些經驗數據擬合強化學習的環境動力學模型;為加速強化學習的收斂速度,采用RBF神經網絡對接觸環境的剛度進行擬合并預測環境剛度,預測的環境剛度結合高斯模型得到環境剛度選擇概率;最后,根據環境剛度選擇概率并結合剛度模型修正PD控制參數中P參數的選擇概率,從而改善強化學習中的動作選擇概率,快速找到機器人力控制的最優參數。

    【技術實現步驟摘要】

    本專利技術屬于機器人力控制和人工智能領域,具體涉及一種基于rbf神經網絡剛度預測與強化學習的機器人力控制方法。


    技術介紹

    1、在約束空間的機器人應用場景中,如精密加工、醫療手術和康復輔助等領域,要求機器人具備精確感知外部環境的能力,并能高效與之交互,同時確保施力的安全性。然而,由于機器人剛度不足(pan?et?al.,2023,optimization?of?static?performance?forrobot?polishing?system?based?on?work?stiffness?evaluation[j].proceedings?ofthe?institution?of?mechanical?engineers,part?b:journal?of?engineeringmanufacture,2023,237(4):519-531.),在接觸環境發生變化或存在外部干擾時,往往會導致接觸過程中的受力不穩定,進而引起接觸力的波動,影響作業效果。

    2、為確保機器人在施力過程中的準確性,通常使用機器人力控制器來調節機器人與外界環境接觸時的穩定性(yang?et?al.,2018,force?modeling,identification,andfeedback?control?of?robot-assisted?needle?insertion:a?survey?of?theliterature[j].sensors,2018,18(2):561.)。傳統的力控制方法包括阻抗控制、導納控制以及力/位混合控制等,這些方法可以對機器人在接觸時的行為進行調節。然而,調節這些控制器的參數時需要綜合考慮多個因素,若調節不當,可能導致控制器性能下降或出現不穩定現象。因此,許多學者在傳統力控制器的基礎上引入了自適應或智能算法以改善其性能。例如,shi等(shi?et?al.,2023,research?on?surface?tracking?and?constant?forcecontrol?of?a?grinding?robot[j].sensors,2023,23(10):4702.)基于模糊pid的力/位置混合控制策略,大大提高了靜態控制策略的響應速度;cao等(cao?et?al.,2020,smoothadaptive?hybrid?impedance?control?for?robotic?contact?force?tracking?indynamic?environments[j].industrial?robot:the?international?joumal?of?roboticsresearch?and?application,2020,47(2):231-242.)將自適應算法和阻抗控制相結合,用來解決不確定環境下的動態力跟蹤問題;wang等(wang?et?al.,2021,hybrid?force/position?control?in?workspace?of?robotic?manipulator?in?uncertainenvironments?based?on?adaptive?fuzzy?control[j].robotics?and?autonomoussystems,2021,145:103870.)結合模糊邏輯和傳統比例積分方法,提出了一種模糊比例積分控制方法來改善法向相互作用力的控制性能;peng等(peng?et?al.,2022,neuralnetworks?enhanced?optimal?admittance?control?of?robot-environment?interactionusing?reinforcement?learning[j].ieee?transactions?on?neural?networks?andlearning?systems,2022,33(9):4551-4561.)提出一種具有動態學習框架的基于神經網絡的自適應控制器,以保證軌跡跟蹤性能;dachang等(dachang?et?al.,2020,constantforce?pid?control?for?robotic?manipulator?based?on?fuzzy?neural?networkalgorithm[j].complexity,2020,2020:e3491845.)提出一種基于模糊神經網絡算法,可快速有效地整定pid控制器參數。然而,盡管這些改進增強了控制器的性能,但通常依賴于預先設定的規則或模型,這意味著當外部環境發生超出預期的變化時,控制器的適應性會受到限制,難以自主探索并應對全新的環境。

    3、強化學習算法具備自主學習的能力,能夠通過與環境的持續交互不斷適應環境變化,展現出良好的適應性(suomalainen?et?al.,2022,a?survey?of?robot?manipulationin?contact[j].robotics?and?autonomous?systems,2022,156:104224.),許多研究者利用強化學習算法來探索最優策略,如;ding等(ding?et?al.,2023,impedance?control?andparameter?optimization?of?surface?polishing?robot?based?on?reinforcementlearning[j].proceedings?of?the?institution?of?mechanical?engineers,part?b:journal?of?engineering?manufacture,2023,237(1-2):216-228.)基于強化學習的機器人阻抗控制參數學習算法,得到了最優的阻抗參數;roveda等(roveda?et?al.,2022,q-leaming-based?model?predictive?variable?impedance?control?for?physical?human-robot?collaboration[j].artificial?intelligence,2022,312:103771.)提出了一種基于q學習算法可預測阻抗模型參數,以協助操作員進行物理人機協作任務;chen等(chen?etal.,2023,active?compliance?control?of?robot?peg-in-hole?assembly?based?oncombined?reinforcement?learning[j].applied?intelligence,2023,53(24):30677-30690.)利用dqn結合阻抗控制器構建了可變阻抗控制器,能針對不同的工況作出相應的選擇;bogdanovic等(bogdanovic?et?al.,2020,learning?variable?impedance?controlfor?contact?sensitive?tasks[j].ieee?robotics?and?automa本文檔來自技高網...

    【技術保護點】

    1.一種基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于包括以下步驟:

    2.根據權利要求1所述的基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:在步驟1中,采集機器人力信號數據時進行預處理,采用平均值濾波。

    3.根據權利要求1所述的基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:在步驟2中,提取機器人力信號的接觸力的誤差et、接觸力的誤差變化率Δet與機器人的偏移位移Δxt,將采集數據放入BP神經網絡進行擬合,構建基于BP神經網絡的環境動力學模型。

    4.根據權利要求1所述的基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:RBF神經網絡模型預測接觸環境的剛度,利用剛度公式計算環境的剛度,公式如下

    5.根據權利要求5所述的基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:基于高斯模型優化強化學習的動作選擇,強化學習為深度Q網絡,其中接觸狀態s設置為力誤差以及力誤差的變化率,即時獎勵設置為實際力與參考力之間的距離:

    6.根據權利要求5述的基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:基于高斯模型優化強化學習的動作選擇步驟中,強化學習動作a,為PD參數,PD參數的范圍設置為kp∈[kp1,kp2,...,kpm],kd∈[kd1,kd2,...,kdm],動作a在這些參數中隨機選擇不同的參數,即a=[u1,u2,...,uT],其中u=(kp,kd)。

    7.根據權利要求1所述的基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:基于高斯模型優化強化學習的動作選擇步驟中,PD參數中P參數的選擇概率可通過高斯模型實現,

    8.根據權利要求7所述的基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:基于高斯模型優化強化學習的動作選擇步驟中,將P參數選擇的概率擴展為動作a的概率,需將離散化后動作a進行編碼,得動作a編碼[(kp1,kd1),(kp1,kd2),(kp1,kd3)...,(kdm,kdn-2),(kpm,kdm-1),(kpm,kdm)],分別對應將每次初始選擇D參數固定,設置每次對應高斯模型的平均值設置為ks對應的kp的序列則動作a的概率為:

    9.根據權利要求1所述的基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:基于高斯模型優化強化學習的動作選擇步驟中,用于強化學習的探索的前期探索,迭代一定的次數后再使用ε-貪心策略的概率,平滑地控制探索與利用之間的權衡。

    ...

    【技術特征摘要】

    1.一種基于rbf神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于包括以下步驟:

    2.根據權利要求1所述的基于rbf神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:在步驟1中,采集機器人力信號數據時進行預處理,采用平均值濾波。

    3.根據權利要求1所述的基于rbf神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:在步驟2中,提取機器人力信號的接觸力的誤差et、接觸力的誤差變化率δet與機器人的偏移位移δxt,將采集數據放入bp神經網絡進行擬合,構建基于bp神經網絡的環境動力學模型。

    4.根據權利要求1所述的基于rbf神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:rbf神經網絡模型預測接觸環境的剛度,利用剛度公式計算環境的剛度,公式如下

    5.根據權利要求5所述的基于rbf神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:基于高斯模型優化強化學習的動作選擇,強化學習為深度q網絡,其中接觸狀態s設置為力誤差以及力誤差的變化率,即時獎勵設置為實際力與參考力之間的距離:

    6.根據權利要求5述的基于rbf神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:基于高斯模型優化強化學習的動作選擇步驟中,強化學習動作a,為...

    【專利技術屬性】
    技術研發人員:肖蒙鄧霞龔國基燕玲
    申請(專利權)人:順德職業技術學院
    類型:發明
    國別省市:

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 岛国无码av不卡一区二区| 69成人免费视频无码专区| 无码8090精品久久一区| 亚洲精品97久久中文字幕无码| 中文有无人妻vs无码人妻激烈 | 无码国产69精品久久久久孕妇| 丰满日韩放荡少妇无码视频| 久久无码专区国产精品发布| 亚洲成a人在线看天堂无码 | 国产精品亚洲专区无码WEB| 亚洲中文字幕无码久久精品1| 亚洲av无码av在线播放| 无码中文字幕日韩专区| 久久无码av三级| 亚洲男人在线无码视频| 久久久g0g0午夜无码精品| 欧洲成人午夜精品无码区久久| 国产成年无码AV片在线韩国| 无码专区一va亚洲v专区在线 | 一本无码中文字幕在线观| 最新亚洲人成无码网www电影| 亚洲av无码久久忘忧草| 亚洲AV无码一区二区二三区软件 | 亚洲日韩AV无码一区二区三区人| 久久久亚洲精品无码| 国产成人无码A区在线观看视频| 无码少妇一区二区浪潮免费| 亚洲av午夜精品无码专区| 欧洲无码一区二区三区在线观看| 无码日韩精品一区二区免费暖暖| 国产网红无码精品视频| 国产精品免费无遮挡无码永久视频 | 亚洲av成人无码久久精品 | 蜜臀亚洲AV无码精品国产午夜.| 亚洲日韩精品无码专区加勒比☆| 亚洲中文无码mv| 无码毛片一区二区三区中文字幕| 精品人妻无码专区在中文字幕| 亚洲人成无码久久电影网站| 久久无码一区二区三区少妇| 中日精品无码一本二本三本|