微信扫码
添加专属顾问
我要投稿
贪心搜索、波束搜索、Top-K采样、Top-p采样和温度都是影响LLM如何生成token的推理时参数,它们只是从离散概率分布中采样的方法,根据LLM输出的概率分布进行操作。
在Gradio中也是有这些常用的参数,而且合理的调参才有合适的输出。
Greedy search(贪婪搜索)是指在每个t时刻选择下一个词时,根据选择概率最高的词。
缺点:
Beam search(集束搜索)对贪心搜索进行了改进,扩大了搜索空间,更容易得到全局最优解。Beam Search 包含一个参数 beam size k,表示每一时刻均保留得分最高的 k 个序列,然后下一时刻用这 k 个序列继续生成。
从这里来看,该算法算是基于贪婪搜索的缺点来设计实现的。
缺点:
维特比算法能做到全局最优。
Top-K采样限制在一定数量要考虑的tokens。
在 Top-K 采样中,概率最大的 K 个词会被选出,然后这 K 个词的概率会被重新归一化,最后就在这重新被归一化概率后的 K 个词中采样。
Top-p采样限制在一定概率质量内的tokens。
其作用如下:
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-20
平均每个月亏3亿!从智谱招股书,我看到了大模型竞争的残酷现实
2025-12-20
我们可能搞错了 AI 的方向:未来不属于生成式 AI
2025-12-19
谷歌发布Gemini 3 Flash,全球免费,打破速度与智能不可兼得悖论
2025-12-19
刚刚,OpenAI最强编程大模型发布!
2025-12-19
AI架构师的诞生:AI+传统DDD模式 = 实现开发效率提升75%
2025-12-19
Anthropic 指路,Letta 破局:Agent 下半场的关键词是 Skills
2025-12-19
突发|ChatGPT 版应用商店正式上线
2025-12-18
端侧AI革命!Android App上可直接集成Gemini大模型了!
2025-10-26
2025-10-02
2025-09-29
2025-10-07
2025-09-30
2025-11-19
2025-10-20
2025-11-13
2025-10-02
2025-10-18
2025-12-16
2025-12-15
2025-12-14
2025-12-12
2025-12-12
2025-12-11
2025-12-09
2025-12-08