微信扫码
添加专属顾问
我要投稿
奖励模型在强化学习中起着至关重要的作用,它决定了智能体如何从与环境的交互中学习并优化策略,以实现预定的任务目标。
奖励模型主要包括数据收集、模型训练和开源数据三个方面的实现。本文主要讲解数据收集。
针对奖励模型已经有一些开源数据集可以使用,主要包括OpenAI 针对摘要任务提出的Summarize from Feedback 数据集,以及针对WebGPT 任务构建的人类反馈数据集。此外,还有Anthropic 团队提出的HH-RLHF 数据集和斯坦福开放出来的质量判断数据集。 OpenAI 在2020 年就将RLHF 技术引入摘要生成,提出了Summarize from Feedback 数据集。首先通过人类偏好数据训练一个奖励模型,再利用奖励模型训练一个与人类偏好相匹配的摘要模型。该数据集分为两部分:对比部分和轴向部分。
WebGPT使用人类反馈训练了一个奖励模型,来指导模型提升长文档问答能力,使其与人类的偏好相符。该数据集包含在WebGPT 项目结束时被标记为适合奖励建模的所有对比数据,总计1.9 万条数据。Anthropic 的HH-RLHF 数据集主要分为两大部分。第一部分是关于有用性和无害性的人类偏好数据,共计17 万条。 这些数据的目标是为强化学习的训练提供奖励模型,但并不适合直接用于对话模型的训练,因为这样可能会导致模型产生不良行为。第二部分是由人类生成并注释的红队测试对话。 这部分数据可以帮助我们了解如何对模型进行更深入的鲁棒性测试,并发现哪些攻击方式更有可能成功。
Stanford Human Preferences(SHP)数据集包含38.5 万条来自18 个不同领域的问题和指令,覆盖了从烹饪到法律建议的多个话题。 这些数据衡量了人们对哪个答案更有帮助的偏好,旨在为RLHF 奖励模型和自然语言生成评估模型提供训练语料。具体来说,每条数据都是Reddit 的一篇帖子。 这篇帖子中会有一个问题或指示,以及两条高赞评论作为答案。SHP 数据构造时通过一定的筛选规则,选择点赞更多的评论作为人类更加偏爱的回复。SHP 和Anthropic 的HH-RLHF有所不同。最大的差异在于SHP 里的内容都是Reddit 用户自然产生的,而HH-RLHF 中的内容则是机器生成的。 这意味着这两个数据集的内容风格和特点都大有不同,可以互为补充。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-02-04
从“回答者”进化为“研究员”:全面解析 Deep Research
2026-02-04
刚刚,Xcode 史诗级更新:原生集成 Claude Agent SDK,苹果开发直接起飞!
2026-02-04
国产 Cowork 它来了!MCP、Skills和Expert Agents都支持,全部免费体验!
2026-02-04
混元研究博客上线姚顺雨团队最新成果:从 Context 探索语言模型的范式转变
2026-02-04
通俗讲解大模型短期记忆 vs 长期记忆
2026-02-04
谁动了我的电脑?谁应该抱怨?
2026-02-03
从 CLI 到桌面:Codex 把 coding agent 变成“任务指挥台”
2026-02-03
谷歌重大更新:国内手动开启 Gemini AI 侧边栏与 Auto Browse 自动浏览全攻略
2026-01-24
2026-01-10
2025-11-19
2025-11-13
2026-01-26
2026-01-01
2025-12-09
2025-11-12
2026-01-09
2025-12-21
2026-02-04
2026-02-03
2026-02-03
2026-02-02
2026-02-02
2026-02-02
2026-01-31
2026-01-30