ModerationToxicityConfig#

class langchain_experimental.comprehend_moderation.base_moderation_config.ModerationToxicityConfig[source]#

基础类:BaseModel

毒性内容审核过滤器的配置。

通过解析和验证来自关键字参数的输入数据来创建一个新模型。

如果输入数据无法验证以形成有效模型,则引发 [ValidationError][pydantic_core.ValidationError]。

self 被显式地设为仅位置参数,以允许 self 作为字段名称。

param labels: List[str] = []#

有毒标签列表,默认为 list[]

param threshold: float = 0.5#

毒性标签置信度分数的阈值,默认为0.5,即50%