微信扫码
添加专属顾问
我要投稿
1. 文本向量化:
- 作用:将用户的问题和大规模文档库中的文本转换为向量表示。
- 举例:在RAG引擎中,用户输入一个问题,如“如何制作意大利面?”,Embedding model会将这个问题转换为一个高维向量。
2. 信息检索:
- 作用:使用用户的查询向量在文档库的向量表示中检索最相似的文档。
- 举例:RAG引擎会计算用户问题向量与文档库中每个文档向量的相似度,然后返回最相关的文档,这些文档可能包含制作意大利面的步骤。
3. 上下文融合:
- 作用:将检索到的文档与用户的问题结合,形成一个新的上下文,用于生成回答。
- 举例:检索到的关于意大利面的文档会被Embedding model转换为向量,并与问题向量一起作为上下文输入到生成模型中。
4. 生成回答:
- 作用:利用融合了检索文档的上下文,生成模型生成一个连贯、准确的回答。
- 举例:RAG引擎结合用户的问题和检索到的文档,生成一个详细的意大利面制作指南作为回答。
5. 优化检索质量:
- 作用:通过微调Embedding model,提高检索的相关性和准确性。
- 举例:如果RAG引擎在特定领域(如医学或法律)中使用,可以通过领域特定的数据对Embedding模型进行微调,以提高检索的质量。
6. 多语言支持:
- 作用:在多语言环境中,Embedding model可以处理和理解不同语言的文本。
- 举例:如果用户用中文提问,而文档库包含英语内容,Embedding model需要能够处理两种语言的文本,并将它们转换为统一的向量空间,以便进行有效的检索。
7. 处理长文本:
- 作用:将长文本分割成多个片段,并为每个片段生成Embedding,以便在RAG引擎中进行检索。
- 举例:对于长篇文章或报告,Embedding model可以将其分割成多个部分,每个部分都生成一个向量,这样可以在不损失太多语义信息的情况下提高检索效率。
上图中的1-5步,流程说明如下:
1. 将查询传递给嵌入模型,并在语义上将查询内容表示为嵌入的查询向量。
2. 将嵌入式查询向量传递给向量数据库。
3. 检索前 k 个相关上下文 – 通过查询嵌入和我们知识库中所有嵌入块之间的距离来衡量检索结果。
4. 将查询文本和检索到的上下文文本传递给对话大模型(LLM)。
5. LLM 将使用提供的内容生成回答内容。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-09-12
Meta如何给RAG做Context Engineering,让模型上下文增加16倍
2025-09-12
检索器江湖:那些让RAG神功大成的武林绝学
2025-09-12
Dify + Oracle + MCP:轻松构建 RAG 与 MCP Agent 智能应用
2025-09-11
做好 RAG 落地最后环节 —— 评估 RAG 应用
2025-09-10
企业级RAG系统实战心得:来自10多个项目的深度总结
2025-09-10
您应该为您的 RAG 系统使用哪种分块技术?
2025-09-10
关于多模态应用的几个疑问,以及多模态应该怎么应用于RAG?
2025-09-10
MiniMax RAG 技术:从推理、记忆到多模态的演进与优化
2025-06-20
2025-06-20
2025-07-15
2025-06-24
2025-06-24
2025-07-16
2025-06-23
2025-07-09
2025-06-15
2025-06-20
2025-09-10
2025-09-10
2025-09-03
2025-08-28
2025-08-25
2025-08-20
2025-08-11
2025-08-05