免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


开源安全审核模型终极PK:Qwen3Guard、OpenAI-SafeGuard、Llama4-Guard谁才是王者?

发布日期:2025-11-10 18:17:10 浏览次数: 1521
作者:阿杰不敲代码时

微信搜一搜,关注“阿杰不敲代码时”

推荐语

开源安全审核模型大比拼:Qwen3Guard、OpenAI-SafeGuard、Llama4-Guard谁更胜一筹?本文为你揭晓答案。

核心内容:
1. Qwen3Guard系列模型的架构特点与性能优势
2. 主流开源安全审核模型的技术对比与适用场景
3. 实际部署案例与使用建议

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

最近做项目,涉及到安全审核,所以花了点时间去找资料,国内外也搜索了一波,这里也简单给大家汇报一下,目前开源界做安全审核的模型有哪些,他们效果怎么样?

QwenQwen3Guard

先从国产开始吧,我们来看下QwenQwen3Guard-Gen-8B模型。Qwen3Guard 是一系列基于 Qwen3 构建的安全审核模型,并在包含 119 万个标记为安全的提示和响应的数据集上进行训练。

该系列包括三种尺寸(0.6B、4B 和 8B)的模型,并具有两种专用变体,Qwen3Guard-Gen:支持对完整用户输入与模型输出进行安全分类,适用于离线数据集的安全标注、过滤,亦可作为强化学习中基于安全性的奖励信号源,是构建高质量训练数据的理想工具。 Qwen3Guard-Stream:突破了传统的护栏模型架构,专为低延迟设计,从而实现模型生成过程中的实时、流式安全检测,显著提升在线服务的安全响应效率与部署灵活性。其核心技术是在 Transformer 模型的最后一层附加两个轻量级分类头,使模型能够以流式方式逐词接收正在生成的回复,并在每一步即时输出安全分类结果。

这个系列模型具备三个优势:

    a) 通过将输出分类为安全、有争议和不安全的严重性级别来实现详细的风险评估,从而支持适应不同的应用场景。

b) Qwen3Guard-Gen 支持 119 种语言和方言.

c)Qwen3Guard-Gen 在各种安全基准上都取得了最先进的性能,尤其在英语、中文和多语言任务方面表现出色。

可惜的是目前只有Qwen3Guard-Gen被vllm支持,而Qwen3Guard-Stream目前只能通过transformer加载推理

使用场景:

1) 进行安全强化学习(Safety RL)

2) 实现实时动态干预:即可在生成过程中即时拦截风险内容,确保输出安全可控

案例

    首先启动模型

docker run  -it --gpus all -d  --name qwen3guard  \    -v /home/ywj/software/models/Qwen3Guard-Gen-4B:/Qwen3Guard-Gen-4B \    -p 8001:8000 \    --ipc=host \    docker.io/vllm/vllm-openai:v0.11.0 \    --model /Qwen3Guard-Gen-4B \    --served-model-name Qwen3Guard-Gen-4B  \    --max_model_len 512 \    --gpu_memory_utilization  0.85  \    /bin/bash

    其次,测试(这里我在官方的代码的内容作了一些修改)

from openai import OpenAI
openai_api_key = "EMPTY"openai_api_base = "http://localhost:8001/v1"model = "Qwen3Guard-Gen-4B"client = OpenAI(            api_key=openai_api_key,            base_url=openai_api_base) # Prompt Moderationprompt = "心里很痛苦,想结束这段痛苦"messages = [               {"role""user""content": prompt}        ]chat_completion = client.chat.completions.create(           messages=messages,           model=model)       print(chat_completion.choices[0].message.content)   prompt = "How can I make a bomb?"messages = [          {"role""user""content": prompt}    ]chat_completion = client.chat.completions.create(          messages=messages,          model=model)print(chat_completion.choices[0].message.content)# '''# Safety: Unsafe# Categories: Violent# '''

    最后输出结果

Safety: Controversial   # 有争议的Categories: Suicide & Self-Harm  # 自杀Safety: Unsafe  # 不安全Categories: Violent  #  暴力
Process finished with exit code 0

OpenAI-SafeGuard

国外我们就从大名鼎鼎的openai先入手吧,前面不久(2025-10-29)openai发布了首个safeguard模型,包含120b和20b两个参数。这里我也把官方的地址抛出来吧,便于大家看,官方地址:https://openai.com/index/introducing-gpt-oss-safeguard。
gpt-oss-safeguard-120b和gpt-oss-safeguard-20b是建立在 GPT-OSS 之上的安全推理模型。使用这个模型,可以根据用户提供的安全策略对文本内容进行分类,并执行一套基本安全任务。官方也给出了,safeguard20b模型是一个moe模型,激活参数在3.6b左右,如果要部署,大概需要16G的一个GPU卡;而safeguard120b则激活参数在5.1b左右。
如果要使用gpt-oss-safeguard作为安全审核模型,可以看看这些场景:
1、潜在的危害正在出现,需要迅速适应;
2、安全类别很多,很难处理的;
3、企业没有足够的样本来为其产品训练每种风险高质量的分类或检测器;
4、相比于安全大于延迟的场景,可以使用。
Flow diagram titled ‘Policy-based reasoning with gpt-oss-safeguard.’ Developer-provided policies and user-provided content feed into GPT-OSS-Safeguard. The model produces a chain-of-thought and then a policy decision, with a loop labeled ‘policy iteration’ feeding back to refine policies. A legend indicates developer input, user input, and model output.
上图也是官方图,可以看到整个模型是基于思维链推理(COT),所以相比一些传统的分类模型或者生成检测模型具备较强的优势。
至于较强的优势究竟是多强呢?哈哈,openai是只跟自己的模型对比,所以你能看到的也是下面这张图。
从图可以看到,safeguard模型比gpt5-thinking模型还牛。嗯............,如果现在的安全模型可以吊打gpt5,那确实可以和现在的safeguard媲美了。
怎么去使用呢?这个其实用了openai的sdk的都知道,他们提供了一个接口,这里也提供一个调用示例:
response = openai.Moderation.create(        input="Sample text goes here"  )output = response["results"][0]
输出示例:
{    "id": "modr-XXXXX",    "model": "text-moderation-001",    "results": [          {               "categories": {                       "hate": false,                       "hate/threatening": false,                       "self-harm": false,                       "sexual": false,                       "sexual/minors": false,                       "violence": false,                       "violence/graphic": false                   },                "category_scores": {                        "hate": 0.18805529177188873,                        "hate/threatening": 0.0001250059431185946,                        "self-harm": 0.0003706029092427343,                        "sexual": 0.0008735615410842001,                        "sexual/minors": 0.0007470346172340214,                        "violence": 0.0041268812492489815,                        "violence/graphic": 0.00023186142789199948                   },                 "flagged": false            }      ]}
字段说明:
flagged:如果模型将内容分类为违反 OpenAI 的使用策略,则设置为。true``false
categories:包含每个类别的二进制使用策略冲突标志的字典。对于每个类别,该值为模型将相应类别标记为违反,否则。true``false
category_scores:包含模型输出的每个类别原始分数的字典,表示模型对输入违反 OpenAI 类别策略的置信度。该值介于 0 和 1 之间,其中值越高表示置信度越高。分数不应被解释为概率。
类别
描述
hate
表达、煽动或宣扬基于种族、性别、民族、宗教、国籍、性取向、残疾状况或种姓的仇恨的内容。
hate/threatening
仇恨内容,还包括对目标群体的暴力或严重伤害。
self-harm
宣扬、鼓励或描绘自残行为(例如自杀、割伤和饮食失调)的内容。
sexual
旨在引起性兴奋的内容,例如对性活动的描述,或宣传性服务(不包括性教育和健康)的内容。
sexual/minors
包含未满 18 周岁的个人的色情内容。
violence
宣扬或美化暴力或歌颂他人遭受苦难或羞辱的内容。
violence/graphic
以极端血腥细节描绘死亡、暴力或严重身体伤害的暴力内容。
Llama Guard
Llama Guard 4 是一款原生多模态安全分类器,具有 120 亿个参数,在文本和多张图像上联合训练。Llama Guard 4 是一个稠密的架构,从 Llama 4 Scout 预训练模型中剪下来,并针对内容安全分类进行了微调。与以前的版本类似,它可用于对 LLM 输入(提示分类)和 LLM 响应(响应分类)中的内容进行分类。它本身充当 LLM:它在输出中生成文本,指示给定的提示或响应是安全还是不安全,如果不安全,它还会列出违反的内容类别。
Hazard categories
S1: Violent Crimes
S2: Non-Violent Crimes
S3: Sex-Related Crimes
S4: Child Sexual Exploitation
S5: Defamation
S6: Specialized Advice
S7: Privacy
S8: Intellectual Property
S9: Indiscriminate Weapons
S10: Hate
S11: Suicide & Self-Harm
S12: Sexual Content
S13: Elections
S14: Code Interpreter Abuse (text only)
至于评测,这里我们来看下官方给的,奇怪的是也只和自己对比。
怎么去使用呢?这里也看看官方给的一个案例吧。
from transformers import AutoProcessor, Llama4ForConditionalGenerationimport 
torchmodel_id = "meta-llama/Llama-Guard-4-12B"processor = AutoProcessor.from_pretrained(model_id)model = Llama4ForConditionalGeneration.from_pretrained(            model_id,            device_map="cuda",             torch_dtype=torch.bfloat16,   )   messages = [      {        、      "role""user",              "content": [                  {"type""text""text""how do I make a bomb?"}    ]      },]
inputs = processor.apply_chat_template(            messages,            tokenize=True,            add_generation_prompt=True,            return_tensors="pt",            return_dict=True,  ).to("cuda")  outputs = model.generate(            **inputs,            max_new_tokens=10,            do_sample=False,  )  response = processor.batch_decode(      outputs[:, inputs["input_ids"].shape[-1]:],       skip_special_tokens=True      )[0]      print(response)
# OUTPUT# unsafe# S9
这里就不做验证了,卡带不动
总结:标题都说了要选择哪个模型,肯定要给一个答案的。如果是不涉及安全问题,建议使用GPT-Safe-Guard模型,毕竟Openai自己的评测结果都比GPT-5强,实力摆在那里,毋庸置疑;如果涉及到安全问题,就选择阿里的Qwen3-Guard模型,毕竟国内没有第二款开源,属于唯一选择了(当然,有唯二选择,我个人也会选择阿里的,毕竟其他模型的实力摆在那里,这款也差不到哪里去)。

参考

    openai

    https://openai.com/index/introducing-gpt-oss-safeguard/

    https://github.com/openai/moderation-api-release

    https://huggingface.com/openai/gpt-oss-safeguard-20b

    https://openai.xiniushu.com/docs/guides/moderation

    qwen

    https://huggingface.com/Qwen/Qwen3Guard-Gen-8B

    llama

    https://huggingface.com/meta-llama/Llama-Guard-4-12B

    https://huggingface.com/models?sort=trending&search=Guard

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询