ModerationToxicityConfig#
- class langchain_experimental.comprehend_moderation.base_moderation_config.ModerationToxicityConfig[source]#
基础类:
BaseModel
毒性内容审核过滤器的配置。
通过解析和验证来自关键字参数的输入数据来创建一个新模型。
如果输入数据无法验证以形成有效模型,则引发 [ValidationError][pydantic_core.ValidationError]。
self 被显式地设为仅位置参数,以允许 self 作为字段名称。
- param labels: List[str] = []#
有毒标签列表,默认为 list[]
- param threshold: float = 0.5#
毒性标签置信度分数的阈值,默认为0.5,即50%