基于深度强化学习的目标跟踪sim-to-real迁移策略

一种基于零和博弈的奖励函数用以加快目标跟踪算法收敛,做到策略自适应不同场景

     传统的目标跟踪算法存在难以鲁棒跟踪、迁移效果不理想等问题,而深度强化学习的高学习探索能力可以适应复杂多变的环境,做到一种策略适应不同的场景。难以收敛是深度强化学习算法目前存在的最大问题之一,针对此问题,团队提出一种基于零和博弈的奖励函数用以加快算法收敛,并将其部署到大疆Robomaster EP平台,验证其算法效果。


算法名称
基于深度强化学习的目标跟踪
算法接口
python test.py
输入
跟踪器数量、目标数量、环境模型
输出
基于不同智能体跟踪策略
依赖库
python3.6,pytorch1.2,opencv-python3.4
参考资源
End-to-end Active Object Tracking and Its Real-world Deployment via Reinforcement


Gitlab链接:
STR· GitLab (crowdhmt.com)   
















    

你可能感兴趣的文章

相关问题

0 条评论

请先 登录 后评论
LH
LH

14 篇文章

作家榜 »

  1. Panda-admin 37 文章
  2. 解弘艺 17 文章
  3. 高曾谊 16 文章
  4. 胡中天 14 文章
  5. 旺仔牛奶opo 14 文章
  6. LH 14 文章
  7. 罗柏荣 13 文章
  8. 林晨 12 文章