针对复杂多变的游戏场景使得多智能体强化学习模型性能降低的问题,meta-MARL算法将基于actor-critic框架的多智能体强化学习算法COMA与元学习算法MAML相结合应用到星际争霸场景中,结合元学习的思想以帮助其快速适应新的场景,在不断变化的复杂环境中正常运行。
meta-MARL算法基于Python3.6+环境下的pytorch、numpy等依赖库开发。算法输入为智能体数量、场景及对手决策的难易程度,输出为各智能体的决策动作。在代码的实现过程中,参考了COMA、MAML等第三方开源代码。
算法名称 | meta-MARL |
算法接口 | python main.py --map=8m --difficulty=7 |
输入 | 智能体数量,场景及对手策略的难易程度 |
输出 | 各智能体的决策动作 |
依赖库 | Python 3.6+、torch、numpy、smac |
参考资源 | COMA、MAML |
gitlab链接:meta-MARL · GitLab (crowdhmt.com)
如果觉得我的文章对您有用,请随意打赏。你的支持将鼓励我继续创作!