ray.rllib.algorithms.algorithm_config.AlgorithmConfig.调试#

AlgorithmConfig.debugging(*, logger_creator: ~typing.Callable[[], ~ray.tune.logger.logger.Logger] | None = <ray.rllib.utils.from_config._NotProvided object>, logger_config: dict | None = <ray.rllib.utils.from_config._NotProvided object>, log_level: str | None = <ray.rllib.utils.from_config._NotProvided object>, log_sys_usage: bool | None = <ray.rllib.utils.from_config._NotProvided object>, fake_sampler: bool | None = <ray.rllib.utils.from_config._NotProvided object>, seed: int | None = <ray.rllib.utils.from_config._NotProvided object>, _run_training_always_in_thread: bool | None = <ray.rllib.utils.from_config._NotProvided object>, _evaluation_parallel_to_training_wo_thread: bool | None = <ray.rllib.utils.from_config._NotProvided object>) AlgorithmConfig[源代码]#

设置配置的调试设置。

参数:
  • logger_creator – 创建 ray.tune.Logger 对象的可调用对象。如果未指定,则创建默认记录器。

  • logger_config – 定义日志记录器的特定配置,在日志记录器内部使用。默认值 None 允许使用嵌套字典进行覆盖。

  • log_level – 设置代理进程及其工作者的 ray.rllib.* 日志级别。应为 DEBUG、INFO、WARN 或 ERROR 之一。DEBUG 级别还将定期打印出相关内部数据流的摘要(这也会在启动时以 INFO 级别打印一次)。

  • log_sys_usage – 将系统资源指标记录到结果中。这需要安装 psutil 以获取系统统计信息,以及 gputil 以获取 GPU 指标。

  • fake_sampler – 使用假(无限速度)采样器。仅用于测试。

  • seed – 此参数与 worker_index 结合使用,为每个工作线程设置随机种子,从而使配置相同的试验具有相同的结果。这使得实验可重复。

  • _run_training_always_in_thread – 在每次迭代中,n 个 training_step() 调用总是在一个单独的线程中运行(就像我们在 evaluation_parallel_to_training=True 时所做的那样,即使没有进行评估,甚至在算法中没有创建评估工作者)。

  • _evaluation_parallel_to_training_wo_thread – 仅在 evaluation_parallel_to_training 为 True 时相关。此时,为了实现并行性,RLlib 将不会使用线程池(通常在这种情况下会使用)。

返回:

这个更新的 AlgorithmConfig 对象。