微信扫码
添加专属顾问
我要投稿
Unsloth 开源工具助你高效微调 Embedding 模型,彻底解决 RAG 系统答非所问的痛点!核心内容: 1. 通用 Embedding 模型在专业领域的局限性分析 2. Unsloth 工具的性能优势与支持模型介绍 3. 四步完成 Embedding 模型微调的实操指南
点击上方↗️「活水智能」,关注 + 星标🌟
作者:Unsloth
编译:活水智能
你用 RAG 搭了一个知识库问答系统,结果用户一问问题,检索回来的全是不相关的内容。
问题出在哪?大概率是你的 Embedding 模型不够"懂"你的数据。
通用的 Embedding 模型在开放域表现不错,但换到你的专业领域——法律文书、医疗记录、代码文档——它对"相似"的理解可能和你完全不同。
解决方案:微调。用你自己的数据训练 Embedding 模型,让它学会你领域里的"相似"到底是什么意思。
今天介绍的 Unsloth,就是目前做这件事效率最高的开源工具之一。
Unsloth 是一个专注于大模型高效微调的开源项目,在 GitHub 上已有超过 25K Star。它最近新增了对 Embedding 模型微调的支持,通过 FastSentenceTransformer 接口,实现了:
Unsloth 支持主流的 Embedding 模型,包括:
如果你的 RAG 系统主要处理中文内容,推荐从 bge-m3 或 Qwen3-Embedding 开始。
from unsloth import FastSentenceTransformer
model = FastSentenceTransformer.from_pretrained(
"BAAI/bge-m3", # 选择你的基座模型
)
Unsloth 的 FastSentenceTransformer 是对 sentence-transformers 库的加速封装,API 用法几乎一致,迁移成本很低。
微调 Embedding 模型需要的数据格式很简单——成对的"查询-文档"样本,标注它们是否相关。你可以从现有的 RAG 系统日志中提取这些数据。
Unsloth 支持三种微调方式:
model.save_pretrained("my-finetuned-embedding")
# 或合并后保存(推荐用于部署)
model.save_pretrained_merged("my-finetuned-embedding-merged")
# 或直接推送到 Hugging Face Hub
model.push_to_hub("your-username/my-finetuned-embedding")
微调后的模型可以无缝对接主流框架:LangChain、Weaviate、vLLM、llama.cpp、Text Embeddings Inference(TEI)等,不需要改动你现有的 RAG 管道。
from sentence_transformersimportSentenceTransformer
model=SentenceTransformer("your-username/my-finetuned-embedding")
query="什么是强化学习?"
documents=[
"强化学习是一种通过试错来学习最优策略的机器学习方法。",
"监督学习需要大量标注数据来训练模型。",
"深度学习使用多层神经网络来提取特征。",
]
query_embedding=model.encode_query(query)
document_embedding=model.encode_document(documents)
similarity=model.similarity(query_embedding,document_embedding)
print(similarity)
# 第一个文档的相似度会明显高于其他两个
Unsloth 官方给出的基准测试数据:
对比基线是 SentenceTransformers + Flash Attention 2。这意味着你用一张消费级显卡(比如 RTX 3060 12GB),就能完成大多数 Embedding 模型的微调。
不是所有场景都需要微调。以下情况值得考虑:
如果你的 RAG 系统用通用模型已经表现不错,那就不需要折腾微调。
Embedding 模型微调是提升 RAG 系统检索质量的关键一步。Unsloth 把这件事的门槛降到了很低——3GB 显存就能开始,训练速度还快了 2-3 倍。
如果你正在搭建或优化 RAG 系统,值得试试。
原文链接:https://unsloth.ai/docs/new/embedding-finetuning
项目地址:https://github.com/unslothai/unsloth
欢迎加入零基础 AI 大模型研发训练营,一起掌握 AI 时代的底层能力。
42天,从零训练一个AI大模型
42天,从零训练一个AI大模型
42天,从零训练一个AI大模型
👇🏻👇🏻👇🏻
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-04-15
ComfyUI v0.19.0 更新:大量新节点、新模型、新修复与性能优化全面落地,工作流与训练能力再升级
2026-04-13
Agent 持续学习落地路径:先做 Traces,再做 Context,最后才微调模型 | Jinqiu Select
2026-03-23
养死四只龙虾的小白有感
2026-03-22
Mistral Forge 的真正意义:企业AI从“租用”走向“拥有”
2026-03-21
马斯克再次站台Kimi,扒掉了Cursor 500亿估值的底裤
2026-03-19
MiniMax M2.7 炸场!自己训自己,8 项基准硬刚 GPT-5 和 Opus 4.6
2026-03-17
【淘宝直播数字人互动LLM】告别AI感:基于真人ASR数据的拟人化探索
2026-03-03
罕见!Meta、OpenAI、xAI联合分享了用生产环境提升LLM的最佳实践!
2026-03-19
2026-02-04
2026-01-30
2026-03-21
2026-01-29
2026-01-29
2026-04-15
2026-02-05
2026-03-03
2026-02-13
2026-01-02
2025-11-19
2025-09-25
2025-06-20
2025-06-17
2025-05-21
2025-05-17
2025-05-14