创建自定义环境

本页提供了一个关于如何使用 Gymnasium 创建自定义环境的简要概述,如需更完整的教程,包括渲染,请在阅读本页之前先阅读基本用法

我们将实现一个非常简单的游戏,称为 GridWorldEnv,它由一个固定大小的二维正方形网格组成。在每个时间步,智能体可以在网格单元之间垂直或水平移动,智能体的目标是导航到在情节开始时随机放置在网格上的目标。

关于游戏的基本信息

  • 观察结果提供了目标和代理的位置。

  • 在我们的环境中,有4个离散的动作,分别对应于“向右”、“向上”、“向左”和“向下”的移动。

  • 当代理导航到目标所在的网格单元时,环境结束(终止)。

  • 只有在达到目标时,代理才会获得奖励,即当代理达到目标时奖励为1,否则为0。

环境 __init__

像所有环境一样,我们的自定义环境将继承自 :class:gymnasium.Env,它定义了环境的结构。环境的要求之一是定义观察和动作空间,它们声明了环境可能的输入(动作)和输出(观察)的通用集合。根据我们对游戏基本信息的概述,我们的代理有四个离散动作,因此我们将使用包含四个选项的 Discrete(4) 空间。

在我们的观察中,有几种选项,在本教程中,我们将假设我们的观察看起来像 {"agent": array([1, 0]), "target": array([0, 3])},其中数组元素代表代理或目标的 x 和 y 位置。表示观察的替代选项是作为一个 2D 网格,网格上的值代表代理和目标,或者是一个 3D 网格,每个“层”仅包含代理或目标信息。因此,我们将声明观察空间为 :class:Dict,其中代理和目标空间是一个 :class:Box,允许输出一个整数类型的数组。

有关可与环境一起使用的空间完整列表,请参见 spaces

from typing import Optional
import numpy as np
import gymnasium as gym


class GridWorldEnv(gym.Env):

    def __init__(self, size: int = 5):
        # The size of the square grid
        self.size = size

        # Define the agent and target location; randomly chosen in `reset` and updated in `step`
        self._agent_location = np.array([-1, -1], dtype=np.int32)
        self._target_location = np.array([-1, -1], dtype=np.int32)

        # Observations are dictionaries with the agent's and the target's location.
        # Each location is encoded as an element of {0, ..., `size`-1}^2
        self.observation_space = gym.spaces.Dict(
            {
                "agent": gym.spaces.Box(0, size - 1, shape=(2,), dtype=int),
                "target": gym.spaces.Box(0, size - 1, shape=(2,), dtype=int),
            }
        )

        # We have 4 actions, corresponding to "right", "up", "left", "down"
        self.action_space = gym.spaces.Discrete(4)
        # Dictionary maps the abstract actions to the directions on the grid
        self._action_to_direction = {
            0: np.array([1, 0]),  # right
            1: np.array([0, 1]),  # up
            2: np.array([-1, 0]),  # left
            3: np.array([0, -1]),  # down
        }

构建观察

由于我们需要在 :meth:Env.reset 和 :meth:Env.step 中计算观察结果,通常有一个方法 _get_obs 将环境的状态转换为观察结果会很方便。然而,这不是强制性的,你可以在 :meth:Env.reset 和 :meth:Env.step 中分别计算观察结果。

    def _get_obs(self):
        return {"agent": self._agent_location, "target": self._target_location}

我们也可以为 :meth:Env.reset 和 :meth:Env.step 返回的辅助信息实现类似的方法。在我们的例子中,我们希望提供智能体和目标之间的曼哈顿距离:

    def _get_info(self):
        return {
            "distance": np.linalg.norm(
                self._agent_location - self._target_location, ord=1
            )
        }

通常,信息还会包含一些只能在 :meth:Env.step 方法内部获得的数据(例如,个别奖励项)。在这种情况下,我们需要更新由 _get_info 在 :meth:Env.step 中返回的字典。

重置功能

由于 :meth:reset 的目的是为环境启动一个新片段,并且有两个参数:seedoptions。种子可以用来将随机数生成器初始化为确定状态,选项可以用来指定在重置过程中使用的值。在重置的第一行,你需要调用 super().reset(seed=seed),这将初始化随机数生成器(:attr:np_random),以便在 :meth:reset 的其余部分中使用。

在我们的自定义环境中,:meth:reset 需要随机选择代理和目标的位置(如果它们位置相同,则重复此过程)。:meth:reset 的返回类型是初始观察和任何辅助信息的元组。因此,我们可以使用之前为实现该功能而编写的方法 _get_obs_get_info

    def reset(self, seed: Optional[int] = None, options: Optional[dict] = None):
        # We need the following line to seed self.np_random
        super().reset(seed=seed)

        # Choose the agent's location uniformly at random
        self._agent_location = self.np_random.integers(0, self.size, size=2, dtype=int)

        # We will sample the target's location randomly until it does not coincide with the agent's location
        self._target_location = self._agent_location
        while np.array_equal(self._target_location, self._agent_location):
            self._target_location = self.np_random.integers(
                0, self.size, size=2, dtype=int
            )

        observation = self._get_obs()
        info = self._get_info()

        return observation, info

步骤函数

:meth:step 方法通常包含你环境中的大部分逻辑,它接受一个 action 并计算应用该动作后的环境状态,返回一个包含下一个观察、结果奖励、环境是否终止、环境是否截断以及辅助信息的元组。

在我们的环境中,步骤函数期间需要发生几件事情:

  • 我们使用 self._action_to_direction 将离散动作(例如,2)转换为带有我们代理位置的网格方向。为了防止代理超出网格边界,我们将代理位置裁剪以保持在边界内。

  • 我们通过检查代理的当前位置是否等于目标位置来计算代理的奖励。

  • 由于环境内部不会截断(我们可以在 :meth:make 期间对环境应用时间限制包装器),我们将 truncated 永久设置为 False。

  • 我们再次使用 _get_obs 和 _get_info 来获取代理的观察和辅助信息。

    def step(self, action):
        # Map the action (element of {0,1,2,3}) to the direction we walk in
        direction = self._action_to_direction[action]
        # We use `np.clip` to make sure we don't leave the grid bounds
        self._agent_location = np.clip(
            self._agent_location + direction, 0, self.size - 1
        )

        # An environment is completed if and only if the agent has reached the target
        terminated = np.array_equal(self._agent_location, self._target_location)
        truncated = False
        reward = 1 if terminated else 0  # the agent is only reached at the end of the episode
        observation = self._get_obs()
        info = self._get_info()

        return observation, reward, terminated, truncated, info

注册并创建环境

虽然现在可以立即使用您的新自定义环境,但更常见的是使用 :meth:gymnasium.make 来初始化环境。在本节中,我们将解释如何注册自定义环境然后初始化它。

环境ID由三个部分组成,其中两个是可选的:一个可选的命名空间(此处:gymnasium_env),一个必需的名称(此处:GridWorld),以及一个可选但推荐的版本(此处:v0)。它也可以被注册为 GridWorld-v0(推荐的方法),GridWorldgymnasium_env/GridWorld,并且在创建环境时应使用适当的ID。

入口点可以是一个字符串或函数,由于本教程不是Python项目的一部分,我们不能使用字符串,但在大多数环境中,这是指定入口点的常规方式。

Register 还有额外的参数,可以用来指定传递给环境的键值参数,例如,是否应用时间限制包装器等。更多信息请参见 :meth:gymnasium.register

gym.register(
    id="gymnasium_env/GridWorld-v0",
    entry_point=GridWorldEnv,
)

要获取关于注册自定义环境的更完整指南(包括使用字符串入口点),请阅读完整的创建环境教程。

一旦环境被注册,你可以通过 :meth:gymnasium.pprint_registry 检查,这将输出所有已注册的环境,然后可以使用 :meth:gymnasium.make 初始化环境。一个包含多个相同环境实例并行运行的矢量化版本的环境可以通过 :meth:gymnasium.make_vec 实例化。

import gymnasium as gym
>>> gym.make("gymnasium_env/GridWorld-v0")
<OrderEnforcing<PassiveEnvChecker<GridWorld<gymnasium_env/GridWorld-v0>>>>
>>> gym.make("gymnasium_env/GridWorld-v0", max_episode_steps=100)
<TimeLimit<OrderEnforcing<PassiveEnvChecker<GridWorld<gymnasium_env/GridWorld-v0>>>>>
>>> env = gym.make("gymnasium_env/GridWorld-v0", size=10)
>>> env.unwrapped.size
10
>>> gym.make_vec("gymnasium_env/GridWorld-v0", num_envs=3)
SyncVectorEnv(gymnasium_env/GridWorld-v0, num_envs=3)

使用包装器

通常,我们希望使用自定义环境的多种变体,或者我们想要修改由 Gymnasium 或其他方提供的某个环境的行为。包装器允许我们这样做,而无需更改环境实现或添加任何样板代码。有关如何使用包装器以及实现自己的包装器的详细信息,请查看 包装器文档。在我们的示例中,观察结果不能直接用于学习代码,因为它们是字典。然而,我们实际上不需要触及我们的环境实现来解决这个问题!我们可以简单地在环境实例之上添加一个包装器,将观察结果展平为一个单一数组:

>>> from gymnasium.wrappers import FlattenObservation

>>> env = gym.make('gymnasium_env/GridWorld-v0')
>>> env.observation_space
Dict('agent': Box(0, 4, (2,), int64), 'target': Box(0, 4, (2,), int64))
>>> env.reset()
({'agent': array([4, 1]), 'target': array([2, 4])}, {'distance': 5.0})
>>> wrapped_env = FlattenObservation(env)
>>> wrapped_env.observation_space
Box(0, 4, (4,), int64)
>>> wrapped_env.reset()
(array([3, 0, 2, 1]), {'distance': 2.0})