如何解决创建自定义MA环境
我正在寻找构建多代理虚拟实例的指导。我一直在尝试完成Rllib documentation的工作,但是我认为我还不了解如何创建自己的多主体环境的方法。
我想让几个特工从不同的随机初始位置x开始。 控制每个代理的动力学应该由一个微分方程来控制,例如:
导数(x)= x + agent_action +噪声
目标是让代理学习最终将导致所有代理的x值收敛到一个值的动作。
我可以使用multi_agent_env.py中提供的代码存根来实现自己的MA环境吗?
例如,我创建自己的文件MADummyEnv.py
from ray.rllib.utils.annotations import PublicAPI
from ray.rllib.env.multi_agent_env import MultiAgentEnv
from ray.rllib.utils.typing import MultiAgentDict,AgentID
class MADummyEnv(MultiAgentEnv):
ray.init()
env = MyMultiAgentEnv()
obs = env.reset()
print(obs)
new_obs,rewards,dones,infos = env.step(actions={"agent1": np.random.choice(action_list)}
,然后在MADummyEnv类中实施 init 步骤,重置方法。这是正确的吗?
如果我有正确的想法或理想地提供一些自定义多代理环境的实现以供参考,也许有人可以向我指出总体方向。
解决方法
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。