补发一篇tensorflow下MADDPG环境搭建配置
相关文章:
【二】MADDPG多智能体算法实现(parl)【追逐游戏复现】
之前用的都是paddle,现在补一下tf的。
github上openAI已经给出了maddpg的环境配置https://github.com/openai/maddpg以及https://github.com/openai/multiagent-particle-envs,
1.环境配置
首先确保gym的版本为0.10.5,tensorflow是1.x版本,我的tensorflow是1.14.0,可以运行成功。
打开终端,将路径cd到multiagent-particle-envs文件夹下(即含有setup.py文件的文件夹下)
执行
pip install -e .
multiagent环境安装完成。
同样的,将路径再cd到maddpg文件夹下(即含有setup.py文件的文件夹下),执行
pip install -e .
maddpg安装完成。将路径加入到path中:打开~/.bashrc,将multiagent-particle-envs下的bin的路径添加到path里面(可有可无)
2.代码的运行
- 训练数据 cd到/maddpg/experiments文件夹下,运行train.py文件,默认环境为simple,若想修改环境,则运行以下代码: python train.py --scenario +环境的名称 例如:
python train.py --scenario simple_tag
注:
- 如果训练完之后报错:
FileNotFoundError: [Errno 2] No such file or directory: ‘./learning_curves/_rewards.pkl’
那么就在跟experiments同级目录下,手动创建一个learning_curves文件夹,当然也可以注释掉这几行数据保存的代码,毕竟不影响训练的结果
Traceback (most recent call last): File “train.py”, line 193, in train(arglist) File “train.py”, line 182, in train rew_file_name = arglist.plots_dir + arglist.exp_name + ‘_rewards.pkl’ TypeError: can only concatenate str (not “NoneType”) to str
直接修改下格式就好:修改train.py第182行为
rew_file_name = str(arglist.plots_dir) + str(arglist.exp_name) +'_rewards.pkl'
第185行为
agrew_file_name = str(arglist.plots_dir) + str(arglist.exp_name) +'_agrewards.pkl'
- 显示可视化界面
训练完数据后,进行可视化,只需运行代码:python train.py --scenario +环境的名称 --display即可。例如:
python train.py --scenario simple_tag --display
相关文章
- LeetCode题解——数组篇
- LeetCode题解——哈希表篇
- EMQX+Prometheus+Grafana:MQTT 数据可视化监控实践
- (四)基本的SELECT语句
- 妙计:布隆过滤器
- (六)排序
- 揭秘:最小二乘法的重要特性
- (七)分页
- (八)多表查询
- 软件测试的发布标准是什么?老板说发布就可以~
- (九)单行函数——数值函数
- 软件测试沟通真的是一门艺术!!!
- FL Studio更新版本21.0.0纯正简体中文支持
- (十)单行函数——字符串函数
- (一)51单片机基础
- 沟通中,当我很急,遇到你很忙,该怎么办?
- 攻破技术难关的性能专项自动化监控过度绘制的工具更新了~
- (二)51单片机基础——LED
- CAD快捷键大全
- IntelliJ IDEA 最新永久 2022 年激活码,亲测有效!!无偿分享,持续更新中