理解毒性#

class langchain_experimental.comprehend_moderation.toxicity.ComprehendToxicity(client: Any, callback: Any | None = None, unique_id: str | None = None, chain_id: str | None = None)[source]#

用于处理毒性内容审核的类。

方法

__init__(client[, callback, unique_id, chain_id])

validate(prompt_value[, config])

使用AWS Comprehend服务检查给定文本提示的毒性,并根据配置应用操作。

Parameters:
  • client (Any)

  • callback (任意 | )

  • unique_id (str | None)

  • chain_id (str | None)

__init__(client: Any, callback: Any | None = None, unique_id: str | None = None, chain_id: str | None = None) None[source]#
Parameters:
  • client (Any)

  • callback (任意 | )

  • unique_id (str | None)

  • chain_id (str | None)

Return type:

validate(prompt_value: str, config: Any = None) str[source]#

使用AWS Comprehend服务检查给定文本提示的毒性,并根据配置应用操作。 :param prompt_value: 要检查毒性的文本内容。 :type prompt_value: str :param config: 毒性检查和操作的配置。 :type config: Dict[str, Any]

Returns:

如果允许或未发现毒性,则为原始的prompt_value。

Return type:

字符串

Raises:
  • ValueError – 如果提示包含有害标签且无法处理

  • 根据配置进行处理。

Parameters:
  • prompt_value (str)

  • config (任何)