System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技術實現步驟摘要】
本專利技術屬于機器人力控制和人工智能領域,具體涉及一種基于rbf神經網絡剛度預測與強化學習的機器人力控制方法。
技術介紹
1、在約束空間的機器人應用場景中,如精密加工、醫療手術和康復輔助等領域,要求機器人具備精確感知外部環境的能力,并能高效與之交互,同時確保施力的安全性。然而,由于機器人剛度不足(pan?et?al.,2023,optimization?of?static?performance?forrobot?polishing?system?based?on?work?stiffness?evaluation[j].proceedings?ofthe?institution?of?mechanical?engineers,part?b:journal?of?engineeringmanufacture,2023,237(4):519-531.),在接觸環境發生變化或存在外部干擾時,往往會導致接觸過程中的受力不穩定,進而引起接觸力的波動,影響作業效果。
2、為確保機器人在施力過程中的準確性,通常使用機器人力控制器來調節機器人與外界環境接觸時的穩定性(yang?et?al.,2018,force?modeling,identification,andfeedback?control?of?robot-assisted?needle?insertion:a?survey?of?theliterature[j].sensors,2018,18(2):561.)。傳統的力控制方法包括阻抗控制、導納控制以及力/位混合控制等
3、強化學習算法具備自主學習的能力,能夠通過與環境的持續交互不斷適應環境變化,展現出良好的適應性(suomalainen?et?al.,2022,a?survey?of?robot?manipulationin?contact[j].robotics?and?autonomous?systems,2022,156:104224.),許多研究者利用強化學習算法來探索最優策略,如;ding等(ding?et?al.,2023,impedance?control?andparameter?optimization?of?surface?polishing?robot?based?on?reinforcementlearning[j].proceedings?of?the?institution?of?mechanical?engineers,part?b:journal?of?engineering?manufacture,2023,237(1-2):216-228.)基于強化學習的機器人阻抗控制參數學習算法,得到了最優的阻抗參數;roveda等(roveda?et?al.,2022,q-leaming-based?model?predictive?variable?impedance?control?for?physical?human-robot?collaboration[j].artificial?intelligence,2022,312:103771.)提出了一種基于q學習算法可預測阻抗模型參數,以協助操作員進行物理人機協作任務;chen等(chen?etal.,2023,active?compliance?control?of?robot?peg-in-hole?assembly?based?oncombined?reinforcement?learning[j].applied?intelligence,2023,53(24):30677-30690.)利用dqn結合阻抗控制器構建了可變阻抗控制器,能針對不同的工況作出相應的選擇;bogdanovic等(bogdanovic?et?al.,2020,learning?variable?impedance?controlfor?contact?sensitive?tasks[j].ieee?robotics?and?automa本文檔來自技高網...
【技術保護點】
1.一種基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于包括以下步驟:
2.根據權利要求1所述的基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:在步驟1中,采集機器人力信號數據時進行預處理,采用平均值濾波。
3.根據權利要求1所述的基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:在步驟2中,提取機器人力信號的接觸力的誤差et、接觸力的誤差變化率Δet與機器人的偏移位移Δxt,將采集數據放入BP神經網絡進行擬合,構建基于BP神經網絡的環境動力學模型。
4.根據權利要求1所述的基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:RBF神經網絡模型預測接觸環境的剛度,利用剛度公式計算環境的剛度,公式如下
5.根據權利要求5所述的基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:基于高斯模型優化強化學習的動作選擇,強化學習為深度Q網絡,其中接觸狀態s設置為力誤差以及力誤差的變化率,即時獎勵設置為實際力與參考力之間的距離:
6.根據權利要求
7.根據權利要求1所述的基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:基于高斯模型優化強化學習的動作選擇步驟中,PD參數中P參數的選擇概率可通過高斯模型實現,
8.根據權利要求7所述的基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:基于高斯模型優化強化學習的動作選擇步驟中,將P參數選擇的概率擴展為動作a的概率,需將離散化后動作a進行編碼,得動作a編碼[(kp1,kd1),(kp1,kd2),(kp1,kd3)...,(kdm,kdn-2),(kpm,kdm-1),(kpm,kdm)],分別對應將每次初始選擇D參數固定,設置每次對應高斯模型的平均值設置為ks對應的kp的序列則動作a的概率為:
9.根據權利要求1所述的基于RBF神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:基于高斯模型優化強化學習的動作選擇步驟中,用于強化學習的探索的前期探索,迭代一定的次數后再使用ε-貪心策略的概率,平滑地控制探索與利用之間的權衡。
...【技術特征摘要】
1.一種基于rbf神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于包括以下步驟:
2.根據權利要求1所述的基于rbf神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:在步驟1中,采集機器人力信號數據時進行預處理,采用平均值濾波。
3.根據權利要求1所述的基于rbf神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:在步驟2中,提取機器人力信號的接觸力的誤差et、接觸力的誤差變化率δet與機器人的偏移位移δxt,將采集數據放入bp神經網絡進行擬合,構建基于bp神經網絡的環境動力學模型。
4.根據權利要求1所述的基于rbf神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:rbf神經網絡模型預測接觸環境的剛度,利用剛度公式計算環境的剛度,公式如下
5.根據權利要求5所述的基于rbf神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:基于高斯模型優化強化學習的動作選擇,強化學習為深度q網絡,其中接觸狀態s設置為力誤差以及力誤差的變化率,即時獎勵設置為實際力與參考力之間的距離:
6.根據權利要求5述的基于rbf神經網絡剛度預測和強化學習的機器人力控制方法,其特征在于:基于高斯模型優化強化學習的動作選擇步驟中,強化學習動作a,為...
【專利技術屬性】
技術研發人員:肖蒙,鄧霞,龔國基,燕玲,
申請(專利權)人:順德職業技術學院,
類型:發明
國別省市:
還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。