ray.rllib.policy.torch_policy_v2.TorchPolicyV2.action_sampler_fn#

TorchPolicyV2.action_sampler_fn(model: ModelV2, *, obs_batch: numpy.array | jnp.ndarray | tf.Tensor | torch.Tensor, state_batches: numpy.array | jnp.ndarray | tf.Tensor | torch.Tensor, **kwargs) Tuple[numpy.array | jnp.ndarray | tf.Tensor | torch.Tensor, numpy.array | jnp.ndarray | tf.Tensor | torch.Tensor, numpy.array | jnp.ndarray | tf.Tensor | torch.Tensor, List[numpy.array | jnp.ndarray | tf.Tensor | torch.Tensor]][源代码]#

给定策略,用于采样新动作的自定义函数。

参数:
  • model – 底层模型。

  • obs_batch – 观察张量批次。

  • state_batches – 动作采样状态批次。

返回:

采样动作 对数似然 动作分布输入 更新状态