一个反直觉的事实:
让AI把思考过程说出来,而不是直接给答案——它的答案反而更准。
这听起来很违反直觉,对吧?我们从小被教育”不要废话,直接说答案”。但对于AI来说,展示思考过程,恰恰是它给出高质量答案的关键。
这个技巧叫做 CoT(Chain of Thought,思维链)。

一句话理解
CoT(思维链) = 让AI在给出最终答案之前,先展示它的推理过程——这一步”说出来”的动作,本身就在提升答案质量。
它是怎么工作的
传统提问:
“小明有5个苹果,小红给了他3个,小明现在有几个?”
AI直接回答:”8个。”
有CoT的提问:
“小明有5个苹果,小红给了他3个,小明现在有几个?请一步步思考。”
AI回答:
“首先,小明有5个苹果。然后,小红又给了他3个。现在我们需要把5和3加起来。5+3=8。所以小明现在有8个苹果。”
答案都是8。但多了中间的”推理过程”。
为什么这能让AI更准?
因为AI在生成每一步推理的时候,它实际上是在重新组织自己的知识网络——每一步都在强化相关神经元之间的联系,最终输出的答案因此更可靠。
有什么用
CoT技巧在复杂推理任务上效果最明显:
- 数学题:列方程、证明题,几步推导比直接写答案更准
- 逻辑推理:谁是谁的爸爸、谁比谁高,需要推理链条
- 代码调试:一步步模拟代码执行,比直接猜bug在哪准得多
- 复杂决策:利弊分析、风险评估,多步思考比拍脑袋强
小八卦
CoT是2022年Google发明的。
当时Google的工程师发现,给GPT-3这样的模型加一句”let’s think step by step”(让我们一步步思考),数学准确率直接从18%飙升到57%。这个发现奠定了后来GPT-4、Claude等模型在推理能力上的基础。
更有意思的是,Google当时发完论文就忙着内部”打架”去了,没把这个发现好好产品化——然后OpenAI把这个技巧用到ChatGPT里,全世界就都开始用了。
一句话总结
CoT的本质,是在问AI问题时多问一句”你是怎么想的”——这一步看似废话,实际上在帮助AI重新组织它的知识,让最终答案更准确。

