ray.rllib.utils.replay_buffers.multi_agent_prioritized_replay_buffer.MultiAgentPrioritizedReplayBuffer#
- class ray.rllib.utils.replay_buffers.multi_agent_prioritized_replay_buffer.MultiAgentPrioritizedReplayBuffer(capacity: int = 10000, storage_unit: str = 'timesteps', num_shards: int = 1, replay_mode: str = 'independent', replay_sequence_override: bool = True, replay_sequence_length: int = 1, replay_burn_in: int = 0, replay_zero_init_states: bool = True, underlying_buffer_config: dict = None, prioritized_replay_alpha: float = 0.6, prioritized_replay_beta: float = 0.4, prioritized_replay_eps: float = 1e-06, **kwargs)[源代码]#
基类:
MultiAgentReplayBuffer
,PrioritizedReplayBuffer
用于多智能体设置的优先回放缓冲区分片。
这个缓冲区旨在并行运行,以在
num_shards
个分片之间分配经验。与更简单的缓冲区不同,它持有一组缓冲区——每个策略ID对应一个缓冲区。开发者API: 此API可能会在Ray的次要版本之间发生变化。
方法
初始化一个 MultiAgentReplayBuffer 实例。
将一批数据添加到相应策略的重放缓冲区中。
使用此 Actor 实例调用给定的函数。
返回计算机的网络名称。
返回所有本地状态。
Ping 操作者。
开发者API: 此API可能会在Ray的次要版本之间发生变化。
从每个策略的缓冲区中采样一个包含
num_items
的 MultiAgentBatch。将所有本地状态恢复到提供的
state
。返回此缓冲区及其所有底层缓冲区的统计信息。
更新底层重放缓冲区的优先级。