微信扫码
添加专属顾问
我要投稿
01
评估困境:当AI遇上主观性
传统的自动评估指标如BLEU或ROUGE在面对开放式生成任务时往往显得力不从心。而人工评估虽然可靠,却耗时耗力,难以大规模应用。在这种背景下,利用LLM自身来评估AI生成的文本似乎成为了一个自然而然的选择。但这种方法真的可靠吗?
以上图中展示了四种GPT模型在不同输出指令配置下的评分分布。
模型敏感度:GPT-3.5-turbo-0613和GPT-4-0613对输出指令的变化表现出更高的敏感度,评分分布差异明显。
版本进化:较新的模型版本(如GPT-3.5-turbo-1106和GPT-4-1106-preview)展现出更稳定的评分分布,暗示它们可能具有更强的指令理解能力。
'理由先行'效应:在多数情况下,要求模型先给出理由再给分数(rs配置)会导致较高的评分,这一现象在GPT-3.5-turbo-0613中尤为明显。
模型间差异:GPT-4系列模型总体上给出了更高的评分,可能反映了它们对对话质量的不同理解或更严格的评判标准。
这些发现不仅揭示了LLM评估行为的复杂性,也为Prompt工程师在选择和使用模型时提供了重要参考。
02
"理由先行"
研究发现,当要求模型先给出评分理由,然后再给出具体分数时,评分结果往往更高。例如:
- 使用GPT-4-0613模型时,json(rs)配置(理由先行)的平均分为5.34
- 而json(sr)配置(分数先行)的平均分仅为3.26
研究者推测,这与LLM的自回归生成特性有关。当模型先给出理由时,它能够更全面地考虑输入的提示和自己生成的理由,从而做出更加深思熟虑的评分。
03
模型敏感性:不同模型,不同表现
- GPT-3.5-turbo-0613和GPT-4-0613表现出明显的顺序敏感性
- 而GPT-3.5-turbo-1106和GPT-4-1106-preview的敏感度相对较低
这一发现强调了在设计评估系统时需要考虑具体使用的模型版本。
04
规则理解:LLM的认知深度
05
提示优化:AI辅助的评估进化
谷歌DeepMind重磅:提示工程师必须掌握OPRO,用LLM就能自动优化Prompt|ICLR2024
如何正确约束输出格式,Deepmind最新:让LLM精准生成任何格式的文本,COLM2024
06
挑战和实践启示
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-21
马斯克再次站台Kimi,扒掉了Cursor 500亿估值的底裤
2026-03-19
MiniMax M2.7 炸场!自己训自己,8 项基准硬刚 GPT-5 和 Opus 4.6
2026-03-17
【淘宝直播数字人互动LLM】告别AI感:基于真人ASR数据的拟人化探索
2026-03-03
罕见!Meta、OpenAI、xAI联合分享了用生产环境提升LLM的最佳实践!
2026-02-13
工具调用准确率从60%飙到95%?我用这个‘解耦微调’把Qwen-7B救活了
2026-02-05
普林斯顿大学RLAnything:AI学会一边学习一边给自己打分
2026-02-04
Agent 越用越聪明?AgentScope Java 在线训练插件来了!
2026-01-30
Oxygen 9N-LLM生成式推荐训练框架
2026-01-04
2026-01-18
2026-01-02
2026-01-01
2026-02-04
2026-01-19
2026-01-03
2025-12-30
2026-01-07
2026-01-10
2026-01-02
2025-11-19
2025-09-25
2025-06-20
2025-06-17
2025-05-21
2025-05-17
2025-05-14