微信扫码
添加专属顾问
 
                        我要投稿
大模型量化实战指南:手把手教你用AWQ方法将Qwen3-1.7B压缩至INT4精度,显著提升推理效率。 核心内容: 1. 大模型量化的核心原理与主流方法对比(GPTQ vs AWQ) 2. 详细硬件要求与环境配置指南(含CUDA版本注意事项) 3. 从模型下载到量化脚本编写的完整操作流程
 
                                大模型量化,就是将模型权重和激活从高精度(如 FP32, FP16)转换为低精度(如 INT8, INT4, FP8)。量化后的模型会显著减少尺寸大小、内存占用和带宽需求,提高计算速度(尤其是利用 INT8 Tensor Core)。
常见的量化方法有:GPTQ和AWQ,其中GPTQ量化速度快,推理性能好,支持Hugging Face生态,但需要校准数据集,对某些任务精度损失略大。AWQ精度通常比GPTQ更高,但量化过程稍慢,需要更多显存。
今天这篇文章,我将使用AWQ方法量化Qwen3-1.7B模型。
1)硬件要求:
GPU:至少16GB显存。
内存:32GB以上(用于加载模型和中间数据)。
磁盘:至少20GB可用空间(模型权重+中间文件)。
2)下载Qwen3-1.7B大模型
在modelscope社区下载大模型,首先安装魔搭(modelscope)模块
pip install modelscope下载模型
mkdir -p /models/modelscope download --model Qwen/Qwen3-1.7B --local_dir /models/Qwen3-1.7B4)AWQ量化软件环境(Ubuntu2204、AutoDL)
创建虚拟环境,若系统默认python版本为3.12,则无需创造虚拟环境conda create -n qwen_quant python=3.12conda activate qwen_quant安装PyTorchpip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128说明:注意cuda的版本,这个cu128指的是 12.8安装基础依赖pip install transformers==4.51.3 accelerate datasetsAWQ量化pip install autoawq autoawq-kernels
5)AWQ量化
下载数据集: https://github.com/Tencent/AngelSlim/blob/main/dataset/sharegpt_gpt4_qwen/sharegpt_gpt4-qwen3_a22B_output.jsonl
编辑量化脚本:
from awq import AutoAWQForCausalLMfrom transformers import AutoTokenizermodel_path = "/models/Qwen3-1.7B"quant_path = "/models/Qwen3-1.7B-AWQ"quant_config = {"zero_point": True, "q_group_size": 128, "w_bit": 4, "version": "GEMM"}# Load modelmodel = AutoAWQForCausalLM.from_pretrained(model_path)tokenizer = AutoTokenizer.from_pretrained(    model_path, trust_remote_code=True, device_map="auto", safetensors=True)# The pattern of data"""msg=[    {"role": "system", "content": "You are Qwen, created by Alibaba Cloud. You are a helpful assistant."},    {"role": "user", "content": "Tell me who you are."},    {"role": "assistant", "content": "I am a large language model named Qwen..."}]data = []for msg in dataset:    print(msg)    text = tokenizer.apply_chat_template(msg, tokenize=False, add_generation_prompt=False)    data.append(text.strip())return data"""# !!!!!!!!!      Customize the code here for calib_data processing    !!!!!!!!!!!!!!def data_gen():    import json    data = []    with open("sharegpt_gpt4-qwen3_a22B_output.jsonl", "r", encoding="utf-8") as file:        for line in file:            msg = json.loads(line)["messages"]            text = tokenizer.apply_chat_template(                msg, tokenize=False, add_generation_prompt=False            )            data.append(text.strip())    return data# !!!!!!!!!      Customize the code here for calib_data processing    !!!!!!!!!!!!!!# Quantizemodel.quantize(    tokenizer,    quant_config=quant_config,    calib_data=data_gen(),    n_parallel_calib_samples=1,    max_calib_samples=256,    max_calib_seq_len=1024,)# Save quantized modelmodel.save_quantized(quant_path)tokenizer.save_pretrained(quant_path)print(f'Model is quantized and saved at "{quant_path}"')6)测试AWQ量化后的模型脚本如下:
import torchfrom transformers import AutoModelForCausalLM, AutoTokenizer# 加载量化后的模型(以AWQ为例)model_path = "/models/Qwen3-1.7B-AWQ"tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)model = AutoModelForCausalLM.from_pretrained( model_path, device_map="auto", trust_remote_code=True).eval()# 测试推理prompt = "你好,请介绍一下你自己。"inputs = tokenizer(prompt, return_tensors="pt").to(model.device)# 生成回答with torch.no_grad(): outputs = model.generate( inputs.input_ids, max_new_tokens=200, do_sample=True, temperature=0.7, top_p=0.9, ) response = tokenizer.decode(outputs[0], skip_special_tokens=True)print(response)最后介绍下我的大模型课:我的运维大模型课上线了,目前还是预售期,有很大优惠。AI越来越成熟了,大模型技术需求量也越来越多了,至少我觉得这个方向要比传统的后端开发、前端开发、测试、运维等方向的机会更大,而且一点都不卷!
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-10-31
Palantir 本体论模式:重塑企业 AI 应用的 “语义根基” 与产业启示
2025-10-31
树莓派这种“玩具级”设备,真能跑大模型吗?
2025-10-30
Cursor 2.0的一些有趣的新特性
2025-10-30
Anthropic 发布最新研究:LLM 展现初步自省迹象
2025-10-30
让Agent系统更聪明之前,先让它能被信任
2025-10-30
Rag不行?谷歌DeepMind同款,文档阅读新助手:ReadAgent
2025-10-29
4大阶段,10个步骤,助你高效构建企业级智能体(Agent)
2025-10-29
DocReward:让智能体“写得更专业”的文档奖励模型
 
            2025-08-21
2025-08-21
2025-08-19
2025-09-16
2025-10-02
2025-09-08
2025-09-17
2025-08-19
2025-09-29
2025-08-20