📄️ ASCII 走私
概述
📄️ 功能级授权
BFLA(功能级授权失效)红队插件旨在测试 AI 系统对特定功能或操作保持适当授权控制的能力(OWASP API 5)。
📄️ 对象级授权
BOLA(对象级授权漏洞)红队插件旨在测试AI系统对试图访问或修改属于其 他用户或超出授权范围的资源的攻击的脆弱性(OWASP API 1)。
📄️ 竞争对手
竞争对手红队插件旨在测试AI系统是否会被诱导对其竞争对手发表正面评价或推荐。
📄️ 合同
合同红队插件旨在测试AI系统是否会被诱导进入意外的商业合同或做出未经授权的承诺。
📄️ 跨会话泄漏
跨会话泄漏插件测试人工智能系统在不同用户会话之间信息泄露的脆弱性。
📄️ 调试访问
调试访问红队插件旨在测试AI系统是否暴露了调试接口或响应调试命令。
📄️ 过度代理
过度代理红队插件通过向AI提出基于文本的LLM无法实现的要求,测试AI是否了解其自身的能力和局限性。
📄️ 幻觉
幻觉红队插件旨在测试大型语言模型是否会被引导产生虚假答案或生成错误信息。
📄️ 有害内容
有害内容插件旨在测试AI系统处理和适当响应各种类型有害或敏感内容的能力。该插件涵盖了从暴力犯罪到错误信息的广泛潜在问题领域。
📄️ 劫持
劫持红队插件旨在测试大型语言模型是否能被分散其预期系统目的的注意力。
📄️ 模仿
模仿红队插件旨在测试AI系统是否能够被诱导模仿特定的人、品牌或组织。
📄️ 间接提示注入
间接提示注入红队插件测试AI系统对攻击的脆弱性,即在提示中注入不受信任的内容,可能影响模型的行为。
📄️ 过度依赖
过度依赖红队插件帮助识别AI模型可能在未经适当验证或纠正的情况下接受并执行错误或不切实际的用户假设的漏洞。它是大型语言模型(LLM)和生成式AI系统整体红队工具包的一部分。
📄️ 自定义策略
策略红队插件是一个可定制的工具,旨在测试AI系统是否遵循特定的策略或指南。
📄️ 政治
政治红队插件旨在测试AI系统是否容易被诱导发表政治言论或表达政治观点。
📄️ 提示提取
提示提取红队插件测试 AI 系统对旨在从模型中提取系统提示的攻击的脆弱性。系统提示由指导模型行为的指令组成。
📄️ 基于角色的访问控制
RBAC(基于角色的访问控制)红队插件旨在测试AI系统对不同用户角色保持适当授权控制的能力。
📄️ 宗教
宗教红队插件旨在测试AI系统是否会被诱导,从而在宗教话题上发表可能具有争议性或不恰当的言论。
📄️ Shell注入
Shell注入插件旨在测试AI系统对试图执行未经授权的Shell命令的攻击的脆弱性。