微信扫码
添加专属顾问
我要投稿
掌握高效微调大模型的秘诀,XTuner工具库助你一臂之力。 核心内容: 1. XTuner工具库的高效微调能力与灵活性 2. 支持大语言模型和多模态图文模型的预训练及微调 3. 从训练到部署的全流程支持和安装指南
在大模型时代,微调(Fine-tuning)是让预训练模型适应特定任务的关键步骤。然而,微调大模型通常需要大量的计算资源和复杂的配置,这让许多开发者望而却步。今天,我们将介绍一款高效、灵活且功能全面的微调工具库——XTuner,它能够帮助你在有限的资源下轻松微调大语言模型(LLM)和多模态图文模型(VLM)。
XTuner 是由 InternLM 团队推出的一款轻量化大模型微调工具库,支持大语言模型和多模态图文模型的预训练及轻量级微调。它不仅高效、灵活,还具备丰富的功能,能够满足多样化的微调需求。
高效:XTuner 仅需 8GB 显存即可微调 7B 模型,并支持多节点跨设备微调 70B+ 大模型。通过自动分发高性能算子(如 FlashAttention、Triton kernels 等)加速训练,并兼容 DeepSpeed,轻松应用 ZeRO 优化策略,提升训练效率。
灵活:XTuner 兼容多种主流大语言模型(如 InternLM、Llama 2、ChatGLM 等)和多模态图文模型 LLaVA,支持预训练与微调。其数据管道设计灵活,兼容任意数据格式,支持 QLoRA、LoRA 及全量参数微调等多种算法,满足多样化需求。
全能:XTuner 支持增量预训练、指令微调与 Agent 微调,提供丰富的开源对话模板,便于与模型交互。训练所得模型可无缝接入部署工具库 LMDeploy、评测工具库 OpenCompass 及 VLMEvalKit,实现从训练到部署的全流程支持。
XTuner 的安装非常简单,支持多种安装方式,满足不同用户的需求。
conda create --name xtuner-env python=3.10 -y
conda activate xtuner-env
pip install -U xtuner
# 集成 DeepSpeed 安装
pip install -U 'xtuner[deepspeed]'
git clone https://github.com/InternLM/xtuner.git
cd xtuner
pip install -e '.[all]'
CUDA_HOME does not exist, unable to compile CUDA op(s)
检查是否安装 nvidia-cuda-toolkit,如果没有安装,可以使用以下命令安装:
conda install -c nvidia cuda-compiler
libGL.so.1: cannot open shared object file: No such file or directory
可以通过以下命令解决:
apt install libgl1-mesa-glx
XTuner 提供了丰富的功能,涵盖了从配置管理、模型微调到数据处理的全流程。以下是几个常用的操作示例:
xtuner list-cfgxtuner copy-cfg $CONFIG $SAVE_FILExtuner train $CONFIGNPROC_PER_NODE=$NGPUS NNODES=$NNODES NODE_RANK=$NODE_RANK PORT=$PORT ADDR=$ADDR xtuner dist_train $CONFIG $GPUS将 .pth 模型转换为 Hugging Face 格式:
xtuner convert pth_to_hf $CONFIG $PATH_TO_PTH_MODEL $SAVE_PATH_TO_HF_MODEL
合并 Adapter 到预训练模型:
xtuner convert merge $LLM $ADAPTER $SAVE_PATH
使用 Hugging Face 模型与 Adapter 进行对话:
xtuner chat $LLM --adapter $ADAPTER --prompt-template $PROMPT_TEMPLATE --system-template $SYSTEM_TEMPLATE
使用 Hugging Face 模型与 LLaVA 进行视觉对话:
xtuner chat $LLM --llava $LLAVA --visual-encoder $VISUAL_ENCODER --image $IMAGE --prompt-template $PROMPT_TEMPLATE --system-template $SYSTEM_TEMPLATE
预处理 arxiv 数据集:
xtuner preprocess arxiv $SRC_FILE $DST_FILE --start-date $START_DATE --categories $CATEGORIES
预处理 refcoco 数据集:
xtuner preprocess refcoco --ann-path $RefCOCO_ANN_PATH --image-path $COCO_IMAGE_PATH --save-path $SAVE_PATH
XTuner 作为一款高效、灵活且功能全面的微调工具库,具有以下优势:
当然,XTuner 也有一些不足之处:
pip 安装,Docker 和 Kubernetes 的部署方式需要自行探索。总的来说,XTuner 是一款非常值得尝试的微调工具库,尤其适合资源有限但又需要高效微调大模型的开发者。如果你正在寻找一款轻量化、高效的微调工具,XTuner 无疑是一个不错的选择。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-05
普林斯顿大学RLAnything:AI学会一边学习一边给自己打分
2026-02-04
Agent 越用越聪明?AgentScope Java 在线训练插件来了!
2026-02-03
OpenClaw之后,我们离能规模化落地的Agent还差什么?
2026-01-30
Oxygen 9N-LLM生成式推荐训练框架
2026-01-29
自然·通讯:如何挖掘复杂系统中的三元交互
2026-01-29
微调已死?LoRA革新
2026-01-19
1GB 显存即可部署:腾讯 HY-MT1.5 的模型蒸馏与量化策略解析
2026-01-18
【GitHub高星】AI Research Skills:一键赋予AI“博士级”科研能力,74项硬核技能库开源!
2025-11-21
2025-12-04
2026-01-04
2026-01-02
2025-11-22
2025-11-20
2026-01-01
2025-11-19
2025-12-21
2025-11-23
2026-02-03
2026-01-02
2025-11-19
2025-09-25
2025-06-20
2025-06-17
2025-05-21
2025-05-17