微信扫码
添加专属顾问
我要投稿
DeepSeek-R1的革命性突破,开源引领多模态视觉新纪元。 核心内容: 1. Visual-RFT技术全面开源,多模态领域的新突破 2. 强化学习方法首次应用于视觉领域,提升模型泛化能力 3. 极少样本高效微调,显著超越传统指令微调方法
视觉强化微调(Visual-RFT)正式开源!
DeepSeek-R1 继文本、数学推理、代码等领域大放异彩后,其基于规则奖励的强化学习方法首次成功迁移到多模态领域,并以 Visual-RFT(Visual Reinforcement Fine-Tuning)的形式全面开源。
其中视觉微调技术首次成功应用到多模态视觉领域。这会不会在多模态视觉领域也开启新的一轮冲击呢?
这一突破性技术使得视觉语言大模型具备更强的泛化能力,能以极少的样本完成高质量微调,在目标检测、分类、推理定位等任务中取得显著提升,甚至超越传统指令微调(SFT)方法。
论文地址:
https://arxiv.org/abs/2503.01785
开源代码:
https://github.com/Liuziyu77/Visual-RFT
Visual-RFT (Visual Reinforcement Fine-Tuning) 是一种在视觉感知任务中采用强化学习方法的模型微调技术,并借鉴 DeepSeek-R1 的强化学习策略(GPRO),为多模态任务引入可验证奖励(Verifiable Rewards) 机制,以增强大视觉语言模型(LVLMs, Large Vision-Language Models) 在不同任务上的推理能力。
强化学习迁移至视觉领域:突破传统认知,首次在多模态视觉大模型中验证基于规则奖励的有效性。
极少样本高效微调:相比传统 SFT 方法,Visual-RFT 仅需少量数据(10~1000 条样本)即可实现显著提升。
任务广泛:适用于 目标检测、开放目标检测、少样本分类和推理定位等任务。
推理能力增强:能够分析问题,进行 “think” 推理,从而实现更精准的视觉理解。
我们先来看一个例子:
用户问这是一张关于花的图片,根据图片请找出花的品种。
模型先思考:这张图片显示了一朵黄色的毛茛花,它有绿色的茎,背景中有绿色的叶子。毛茛花是一种属于毛茛科的开花植物,以其明亮的黄色花朵闻名,通常生长在草地和牧场中。然后回答:毛茛花
Visual-RFT VS 传统 SFT:
| 方法 | 数据需求 | 泛化能力 | 推理能力 |
|---|---|---|---|
| SFT(监督微调) | 需要大量数据 | 泛化能力有限 | 仅依赖已有数据 |
| Visual-RFT | 仅需 10~1000 条数据 | 泛化能力强 | 能推理 & 解释 |
论文的实验基于Qwen2-VL-2B/7B视觉语言模型,Visual-RFT 在以下任务中均大幅超越传统 SFT 方法:
Visual-RFT 是首个基于DeepSeek-R1强化微调方法的多模态迁移,填补了视觉语言大模型强化学习的空白。
它不仅提升了视觉推理能力,还极大降低了视觉任务微调的成本,对于CV & AI 社区都是一个重要突破。
异想天开一下,此方法是否也可以促进机器人的AI大脑的视觉模块的进步?
你认为强化学习是否会成为未来多模态大模型训练的主流方式·················
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-06
首个AI商业广告工作流开源,我做出了可口可乐最有创意的广告
2025-11-06
ChatPPT+魔搭社区:MCP 2.0全面升级!
2025-11-06
AI时代,我们为何重写规则引擎?—— QLExpress4 重构之路
2025-11-06
锦秋基金创始合伙人杨洁揭秘:AI投资三大方向与AI创业者机遇——现场解答最真实的三大创业焦虑
2025-11-05
LLaMA Factory 安装与配置指南:在 Ubuntu 上快速搭建大模型微调平台
2025-11-05
TinyAI :全栈式轻量级 AI 框架
2025-11-04
百灵大模型 Ling 和 Ring 系列首发支持 SGLang-JAX 推理引擎
2025-11-04
首个国产开源AI原生后端,不再写后端,AI就是全栈工程师。
2025-08-20
2025-09-07
2025-08-20
2025-08-26
2025-08-22
2025-09-06
2025-10-20
2025-08-22
2025-09-08
2025-08-12
2025-11-03
2025-10-29
2025-10-28
2025-10-13
2025-09-29
2025-09-17
2025-09-09
2025-09-08