免费POC, 零成本试错
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我要投稿

LLaMA Factory 安装与配置指南:在 Ubuntu 上快速搭建大模型微调平台

发布日期:2025-11-05 20:31:52 浏览次数: 1977
作者:简科抖

微信搜一搜,关注“简科抖”

推荐语

想在Ubuntu上快速搭建大模型微调平台?LLaMA Factory帮你轻松实现,支持100+种主流大语言模型!

核心内容:
1. LLaMA Factory框架的四大核心优势
2. 详细的环境配置与安装步骤指南
3. Conda环境创建与配置技巧

杨芳贤
53AI创始人/腾讯云(TVP)最具价值专家

什么是 LLaMA Factory


LLaMA Factory 是一个开源的大语言模型微调框架,它提供了一套高效、易用的工具集,支持多种主流大语言模型(如 LLaMAChatGLMQwen 等)的微调与部署。该框架具有以下突出特点:


·支持模型丰富:兼容 100+ 种大语言模型,涵盖 LLaMABaichuanChatGLMQwen 等主流架构


·训练效率高:集成多种高效微调技术(LoRAQLoRA 等),大幅降低显存需求


·界面友好:提供直观的 Web UI,支持零代码操作的模型训练与推理


·功能完整:覆盖模型预训练、指令微调、奖励模型训练等全流程


无论您是研究者、开发者还是企业用户,LLaMA Factory 都能帮助您快速构建和定制专属的大语言模型应用。


环境配置与LLaMA Factory安装

一、安装git


在终端中执行以下命令,安装 Git 版本工具:

sudo apt install git


标题: fig:二、下载LLama-factory


使用 Git 克隆 LLaMA Factory 项目仓库:


git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git


标题: fig:


三、安装conda


1、安装Conda 所需依赖:


sudo apt install libgl1-mesa-glx libegl1-mesa libxrandr2 libxrandr2 libxss1 libxcursor1 libxcomposite1 libasound2 libxi6 libxtst6


标题: fig:


2、下载conda 安装包


wget https://repo.anaconda.com/archive/Anaconda3-2024.10-1-Linux-x86_64.sh


标题: fig:


3、安装conda


bash Anaconda3-2024.10-1-Linux-x86_64.sh


一路回车和yes注意终端出现Anaconda3 will now be installed into this location:可输入自定义路径进而支持自定义conda安装路径(直接回车会默认安装到HOME目录)


标题: fig:


标题: fig:


4conda配置环境,默认没有配置环境(如下图)


标题: fig:


查看conda安装位置


标题: fig:


输入 nano ~/.bashrc


标题: fig:


bashrc文件的最后一行加入:export PATH=/home/ad/anaconda3/bin:$PATH (ad是自己的用户名)。按Ctrl+x 保存并退出编辑


标题: fig:


配置生效


标题: fig:


conda -V查看版本正常了


标题: fig:


四、创建环境

1、创建llama-factory微调环境

conda create -n llama-factory python=3.10


标题: fig:


标题: fig:


激活环境


conda activate llama-factory


我这里配置环境后直接进入激活环境报错(要先初始化)


标题: fig:


解决:


source activate(重新进入虚拟环境)


conda deactivate (退出性能环境)


conda activate llama-factory(重新激活虚拟环境)
标题: fig:


2、进入llama-factory环境后,进入到LLama-Factory文件下,安装相关依赖


pip install -e ".[torch,metrics]" --no-build-isolation -i https://mirrors.aliyun.com/pypi/simple


标题: fig:


标题: fig:


3、启动LLama-Factory


标题: fig:


(这里我用的是虚拟机ubuntu20.4安装LLama-Factory,可以在win系统下通过虚拟机IP地址访问LLama-Factory界面)


标题: fig:


ubuntu可视化系统也能访问LLama-Factory


标题: fig:


五、gradio公开域名微调

如果ubuntu是服务器版本没有桌面的,你又想使用图形化微调,可以通过gradio创建公开域名链接进行微调

0表示第一张显卡:CUDA_VISIBLE_DEVICES=0   

1表示创建1个域名链接:GRADIO_SHARE=1

查看有多少张卡:

nvidia-smi -L

标题: fig:

1、启动命令行:

CUDA_VISIBLE_DEVICES=0 GRADIO_SHARE=1 llamafactory-cli 

gradio报错:


标题: fig:


解决:


创建目录:mkdir -p /home/ad/.cache/huggingface/gradio/frpc


标题: fig:


进入目录:cd /home/ad/.cache/huggingface/gradio/frpc


标题: fig:


这个下载方式可能有问题:


wget https://github.com/gradio-app/gradio/raw/main/gradio/frpc_linux_amd64-O frpc_linux_amd64_v0.3


标题: fig:


我用win浏览器下载,然后手动上传到frpc文件下:


链接:https://cdn-media.huggingface.co/frpc-gradio-0.3/frpc_linux_amd64


标题: fig:


上传进frpc文件里,然后重命名 mv frpc_linux_amd64 frpc_linux_amd64_v0.3


标题: fig:


添加权限 chmod +x frpc_linux_amd64_v0.3


标题: fig:


启动 CUDA_VISIBLE_DEVICES=0 GRADIO_SHARE=1 llamafactory-cli webui


标题: fig:


这样就生成了一条公开域名,你也可以分享给其他人用:


https://265175b551a47a2dd5.gradio.live/

至此你已经部署好了LLaMA Factory

标题: fig:


53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询