langchain_experimental.comprehend_moderation.toxicity
.ComprehendToxicity¶
- class langchain_experimental.comprehend_moderation.toxicity.ComprehendToxicity(client: Any, callback: Optional[Any] = None, unique_id: Optional[str] = None, chain_id: Optional[str] = None)[source]¶
处理毒性内容的类。
Methods
__init__
(client[, callback, unique_id, chain_id])validate
(prompt_value[, config])使用AWS Comprehend服务检查给定文本提示的毒性,并根据配置应用操作。 参数: prompt_value(str):要检查毒性的文本内容。 config(Dict[str,Any]):毒性检查和操作的配置。
- Parameters
client (Any) –
callback (Optional[Any]) –
unique_id (Optional[str]) –
chain_id (Optional[str]) –
- Return type
None
- __init__(client: Any, callback: Optional[Any] = None, unique_id: Optional[str] = None, chain_id: Optional[str] = None) None [source]¶
- Parameters
client (Any) –
callback (Optional[Any]) –
unique_id (Optional[str]) –
chain_id (Optional[str]) –
- Return type
None
- validate(prompt_value: str, config: Any = None) str [source]¶
使用AWS Comprehend服务检查给定文本提示的毒性,并根据配置应用操作。 参数:
prompt_value(str):要检查毒性的文本内容。 config(Dict[str,Any]):毒性检查和操作的配置。
- 返回:
str:如果允许或未发现毒性,则返回原始prompt_value。
- 引发:
ValueError:如果提示包含有毒标签并且根据配置无法处理。
- Parameters
prompt_value (str) –
config (Any) –
- Return type
str