在前几篇文章里,我们聊了 CoT(思维链),那是教 AI “慢下来思考”。
很多朋友回去试了,效果不错。但很快,有人在后台抛给我一个新的难题:
“当任务特别复杂的时候,CoT 也不管用了。
AI 思考着思考着,就跑偏了,或者写到一半逻辑崩盘,虎头蛇尾。”
这就像你让一个刚毕业的实习生:“去,把公司的明年战略规划写一下。”
他哪怕“三思而后行”,也写不出来,因为这道题太大了,超出了他单次处理的“认知带宽”。
人类面对这种难题,是怎么解决的?
我们不会硬刚,我们会拆解。
今天,我们要聊的这个 Prompt 技巧,就是 AI 界的“任务拆解大师”——Least-to-Most Prompting(由少至多提示法)。
它不仅仅是一个技巧,更是一种高级的思维管理艺术。
01 为什么 AI 会“大脑过载”?
大模型的原理是预测下一个 Token。
当一个问题的逻辑链条太长(比如超过 10 步推理),模型在生成后面的内容时,对前面关键信息的注意力(Attention)就会衰减。
简单说就是:想得太多,忘得也快。
CoT(思维链)虽然让模型展示了步骤,但它通常要求模型“一口气”把所有步骤想完并输出。
对于超长任务,这就像让一个人屏住呼吸潜水 50 米,很容易在中间憋死(逻辑断裂)。
这时候,我们需要换一种思路:Least-to-Most(LTM)。
它的核心心法只有八个字:
化繁为简,逐个击破。
02 什么是 Least-to-Most?
这个概念最早由 Google Research 提出,其实理起来非常简单,就两步:
Decomposition(拆解): 别急着回答原问题,先把它拆成一堆“子问题”。Sequential Solving(顺序解决): 一个接一个地回答子问题,且把上一个子问题的答案,作为下一个子问题的条件。举个不恰当但很形象的例子:
你问 AI:“我要怎么把大象装进冰箱?”
普通 Prompt: AI 会胡扯一通或者直接说“打开门塞进去”。CoT Prompt: AI 会说“首先找个冰箱,然后找个大象,然后...”Least-to-Most Prompt:第一步(拆解): AI 问自己:“要回答这个问题,我得先解决哪几个子问题?”子问题 3:如果大于,怎么处理大象(切块?)或者处理冰箱(定制?)?第二步(求解): 依次回答上述问题,最终得出结论。
03 实战:如何写出 LTM 的 Prompt?
作为产品经理,我们不需要懂复杂的算法,我们只需要掌握话术。
假设我们要解决一个复杂的逻辑推理题:
问题: “张三最后一次见到李四是在王五结婚的那天,那天是赵六生日的后三天。已知赵六是 2023 年 5 月 1 日生的,请问张三哪天见到的李四?”
如果你直接扔给 AI,它很容易算晕。
我们用 Least-to-Most 的思路来写 Prompt:
第一阶段:强制拆解(Decomposition Prompt)
Prompt:
“请回答这个问题:[插入上述复杂问题]。
但在回答之前,请先列出为了解决这个问题,你需要回答哪些子问题?不要直接给出最终答案。”
AI 输出:
为了解决这个问题,我需要回答以下子问题:
第二阶段:顺序执行(Execution Prompt)
拿到子问题列表后,我们(或者在程序后台)引导 AI 逐个回答。
Prompt:
“好。现在我们来解决第 1 个子问题:赵六的生日是哪一天?”
AI 输出: 2023 年 5 月 1 日。
Prompt:
“基于上一题的答案(5月1日),现在解决第 2 个子问题:王五结婚是哪一天?”
AI 输出: 5 月 1 日往后推 3 天,是 5 月 4 日。
......
最后,AI 极其轻松地得出了正确答案,而且逻辑如手术刀般精准。
04 为什么要这么麻烦?
你可能会问:“直接用 CoT 让它一步步想不就行了吗?为什么要拆成两次交互?”
这里有两个深刻的认知差异:
1. 隔离错误率
CoT 是一串连珠炮,中间错一步,后面全错。
LTM 是“走一步,确认一步”。如果子问题 1 答错了,我们(或者 Agent 系统)有机会在中间纠正它,而不至于让它在错误的道路上狂奔。
2. 突破上下文限制
对于那种“写一本小说”或者“写一个贪吃蛇游戏”的任务。
你不可能在一个 Prompt 里让它把代码全写完。把一个不可能完成的“长任务”,变成十个容易完成的“短任务”。 这就是 LTM 的威力。
05 产品经理的思考:把 LTM 封装进“中间层”
回到我们的老话题:不要让用户去干这件事。
用户只会问:“怎么把大象装冰箱?”
作为产品经理,我们设计的 Agent(智能体) 应该在后台默默完成 LTM 的过程:
Intent Layer(意图层): 识别到这是一个复杂逻辑问题。Planning Layer(规划层): 偷偷调用一次 LLM,Prompt 是:“把这个问题拆解成子步骤”。Execution Layer(执行层): 拿到 5 个步骤,写一个 for 循环,依次把上一步的结果喂给下一步,自动跑完 5 次调用。Presentation Layer(表现层): 给用户输出一个完美的最终答案。用户觉得 AI 是一次性想出来的,实际上 AI 在后台“偷偷努力”了 5 轮。
写在最后
Least-to-Most Prompting 告诉我们一个朴素的道理:
慢即是快。
当我们抱怨 AI “笨”、“容易产生幻觉”时,往往是因为我们太贪心,试图让它在几秒钟内跨越巨大的认知鸿沟。
学会拆解,是人类之所以能建成金字塔的原因,也是 AI 之所以能超越“懂王”变成“专家”的必经之路。