ray.rllib.algorithms.algorithm.Algorithm.from_checkpoint#

classmethod Algorithm.from_checkpoint(path: str | Checkpoint | None = None, *, policy_ids: Collection[str] | None = None, policy_mapping_fn: Callable[[Any, int | str], str] | None = None, policies_to_train: Collection[str] | Callable[[str, SampleBatch | MultiAgentBatch | Dict[str, Any] | None], bool] | None = None, checkpoint=-1, **kwargs) Algorithm[源代码]#

从给定的检查点创建一个新的算法实例。

参数:
  • path – 要使用的检查点目录的路径(str)或要从中恢复的 AIR 检查点实例。

  • policy_ids – 可选的 PolicyID 列表以进行恢复。这允许用户仅使用最初存在的策略子集来恢复算法。

  • policy_mapping_fn – 一个可选的(更新的)策略映射函数,从此处开始使用。

  • policies_to_train – 一个可选的策略ID列表,用于指定要训练的策略,或者是一个可调用的函数,该函数接受PolicyID和SampleBatchType并返回一个布尔值(是否可训练?)。如果为None,将保持现有的设置不变。不在列表中的策略ID(或可调用函数返回False的策略)将不会被更新。

返回:

实例化的算法。