微信扫码
添加专属顾问
我要投稿
Qwen3-Embedding系列模型在多语言和长上下文处理能力上超越主流竞品,成为开源嵌入新标杆。核心内容: 1. Qwen3-Embedding系列模型评测表现及其版本介绍 2. Qwen3-Embedding与BGE-M3的全方位对比优势 3. Qwen3-Embedding的本地部署指南和Dify召回测试实录
前两天,通义千问推出的 Qwen3-Embedding 系列模型(包括8B、4B和0.6B三个版本)在权威评测中表现惊艳,尤其在多语言任务和长上下文处理能力上全面超越主流竞品,成为开源嵌入模型的新王者。
Qwen3-8B以70.58总分登顶榜单(超越Gemini-001的68.37),在16项评测中12项第一,尤其在检索精度(MSMARCO 57.65)、问答能力(NQ 10.06) 等关键任务上表现惊艳。
即使最小尺寸的Qwen3-0.6B(仅595M参数),总分64.34仍显著超越7B级竞品(如SFR-Mistral 60.9),小模型也有大能量!
指标 | Qwen3-8B | BGE-M3 | 优势幅度 |
---|---|---|---|
综合得分 | 70.58 | 59.56 | ↑11.02 |
上下文长度 | 32K | 8K | ↑ 4倍 |
检索任务(MSMARCO) | 57.65 | 40.88 | ↑41% |
开放问答(NQ) | 10.06 | -3.11 | 实现负分逆转 |
多语言理解 | 28.66 | 20.10 | ↑42% |
Qwen3在保持99%榜单合规性的同时,以更高维度参数(8B vs 568M)和4倍上下文支持,彻底改写Embedding模型性能边界!
同为7B级别:Qwen3-8B对比Linq-Embed-Mistral(61.47)、SFR-Mistral(60.9),性能领先超15%。
轻量级战场:Qwen3-0.6B(64.34)大幅领先同类小模型如multilingual-e5-large(63.22)、BGE-M3(59.56),证明通义千问架构的高效性。
根据官方文档自行部署GPUStack,官方提供了Docker镜像,可快速部署。
在GPUStack的 模型 界面,点击 部署模型 -> ModelScope,搜索qwen3-embedding。平台会自动检测你的硬件性能,推荐可以安装的量化模型版本。
我们选择了 qwen3-embedding-8b的Q8_0量化版本,等待模型下载,提示 running,表示模型已经部署完成。
现在Dify的插件市场中找到GPUStack,点击安装插件。等插件安装完成后,进行模型配置。
创建知识库,在Embedding模型中,选择我们自己部署的模型。
把公众号的历史文章,放入知识库进行测试。
选择Dify的父子分段策略。由于是markdown格式,希望每一个大段为一个父块,分段符选择 “#”.
测试一下召回情况
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-29
如何评测 AI 智能体:试试字节开源的扣子罗盘
2025-08-29
HiMarket 正式开源,为企业落地开箱即用的 AI 开放平台
2025-08-28
美团 M17 团队开源 Meeseeks 评测集:揭秘大模型的 “听话”能力
2025-08-28
我摊牌了,PDF的终结者出现了!这个开源神器,让你的RAG项目吞吐能力暴增10倍!
2025-08-28
面壁开源多模态新旗舰MiniCPM-V 4.5,8B 性能超越 72B,高刷视频理解又准又快
2025-08-28
1.9K Star 微软开源TTS王炸!90分钟超长语音合成,4人对话自然切换!
2025-08-27
初探:从0开始的AI-Agent开发踩坑实录
2025-08-27
ollama v0.11.7发布:深度集成DeepSeek-V3.1与Turbo云端推理模式解析
2025-07-23
2025-06-17
2025-08-20
2025-06-17
2025-07-23
2025-08-05
2025-07-14
2025-08-20
2025-07-29
2025-07-12