微信扫码
添加专属顾问
我要投稿
深入解析RAG系统中的Embedding与Rerank模型:从稀疏向量到语义理解的技术演进。 核心内容: 1. 稀疏嵌入与稠密嵌入的本质区别及适用场景 2. Bi-Encoder与Cross-Encoder架构在检索与排序阶段的对比 3. LLM-Embedding与传统Embedding模型的训练差异与特性
1.引言
在RAG系统中,常见的两种优化方式包括:
这引出两个关键问题:
最近,qwen3-embedding模型发布后,备受关注,那llm-emb和上面独立-emb又有什么不同呢?
Sparse-Embedding: 基于词频统计的关键词匹配(代表算法如 BM25 和 TF-IDF),利用词频(TF)和逆文档频率(IDF)计算词的重要性。最终文本被表示为高维稀疏向量,非零元素对应出现的词项。
适用场景:关键词的精确匹配
Dense-Embedding: 基于深度学习模型(如 BERT)将文本编码为低维稠密向量,捕捉语义信息。通过余弦、L2等向量的相似度计算获取相关向量的重要性。最终文本被表示为低维稀疏向量。
适用场景:识别同义词和语义相近的表达
3.Embedding 与 Rerank
Embedding-model和Rerank-model分别采用了两种模型架构:Bi-Encoders 和Cross-Encoder。
4.llm-Embedding 与 Embedding-model
llm-embedding:其训练是和所有的transformer block一起训练的,最终的优化目标是为了提高下一个token的准确率,其输出的向量内含“上下文理解”和“未来指向性”的信息浓度,这是embedding模型所不具备的。
Embedding模型:采用对比学习进行训练,文本对,存在正负样本。损失函数:在向量空间中,拉近正例对的向量距离,推远负例对的向量距离。生成的向量在衡量句子间“意思是否相近”这个问题上表现得极其出色,是专门为语义搜索、聚类、RAG(检索增强生成)等任务量身定做的。
qwen3-emb采用decoder-only架构实现,其具备instruct能力,通过给到适当的prompt 去“调节任务逻辑”,让同一个模型能适配不同类型的召回或匹配任务。(兴奋兴奋) 举例:"岗位召回简历的匹配场景"
在emb时添加指令"Given a resume and a job description, determine whether the candidate strictly meets the job requirements"即可切换该场景
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-21
编程选GPT-5.4,还是GPT-5.3-Codex?
2026-03-21
AI Coding前端实践后的复盘总结
2026-03-21
OpenAI 首席科学家:Codex 只是雏形,我们要造的是「全自动 AI 研究员」
2026-03-21
谷歌Stitch「氛围设计」干崩Figma 8.8%股价:十年经验,败给巨头一次更新(附实测)
2026-03-21
为什么 CLI 比 MCP 更适合 LLM
2026-03-21
渐进式披露(Progressive Disclosure):Agent 从 Demo 到企业级落地的 “救命架构”
2026-03-21
AI 编程工具怎么选?Codex 和 Claude Code 的本质区别
2026-03-21
Karpathy 最新播客:我得了 AI 精神病、App 将消失、Agent 将碾压实验室
2026-01-24
2026-01-10
2026-01-01
2026-01-26
2026-01-09
2026-01-09
2026-01-23
2025-12-30
2026-01-14
2026-01-21
2026-03-21
2026-03-20
2026-03-19
2026-03-19
2026-03-19
2026-03-18
2026-03-17
2026-03-17