【词汇专栏】思维链(Chain-of-Thought):让 AI “一步步想“

张开发
2026/4/17 23:08:37 15 分钟阅读

分享文章

【词汇专栏】思维链(Chain-of-Thought):让 AI “一步步想“
思维链Chain-of-Thought让 AI “一步步想”直接问 AI 一道复杂的数学题它可能秒回一个错误答案。但在提问后面加上请一步步思考——准确率可能从 20% 跳到 80%。这就是思维链的魔力。一句话定义思维链Chain-of-Thought简称 CoT是一种提示技术通过引导大模型在给出最终答案前先展示推理的中间步骤从而显著提升复杂推理任务的准确率。为什么需要思维链人类的思维方式和早期 AI 的思维方式有本质区别人类做复杂题目 15 × 23 ? → 10 × 23 230 → 5 × 23 115 → 230 115 345 → 答案345 分步计算每步简单逐步累积得到正确答案 早期 AI 的方式 15 × 23 ? → 345直接跳到答案 如果问题更复杂就更容易算错思维链的核心洞察让模型把思考过程写出来和人类打草稿是同一个道理。不使用思维链 模型直接输出答案 → 中间推理过程黑盒 → 容易出错 使用思维链 模型先写推理过程 → 每一步都相对简单 → 最终答案更准确 → 而且你可以检查它的推理过程发现错误在哪通俗类比考试时的过程分数学考试 只写最终答案无思维链 345 → 老师无法判断你是算对的还是蒙对的 写完整解题过程有思维链 15 × 23 15 × 20 15 × 3 300 45 345 → 即使最终答案算错过程分也拿到了 → 更重要的是你自己能在过程中发现错误 AI也一样展示推理过程 更可靠 可检查思维链的几种使用方式1. 零样本思维链Zero-Shot CoT最简单的用法——在问题后面加一句话提示词 一个游泳池长50米宽20米深2米。如果每小时注入100立方米水 多久能注满请一步步思考。 关键就三个字一步步思考 → 模型会自动展开推理过程这个方法由 Google 在 2022 年的论文中首次提出简单到不可思议却极为有效。2. 少样本思维链Few-Shot CoT给几个带有推理过程的示例提示词 Q: Roger有5个网球。他又买了2罐网球每罐3个球。他现在有多少个网球 A: Roger开始有5个球。2罐 × 3个/罐 6个新球。5 6 11。答案是11。 Q: 餐厅有23张桌子。如果每张桌子坐4人但3张桌子被预约了还能坐多少人 A: 总共有23张桌子。23 × 4 92人。3张被预约 3 × 4 12人。92 - 12 80。答案是80。 Q: 小明有15块糖给了弟弟1/3又买了5块给了朋友7块最后给了妈妈一半。妈妈得到几块 A:模型会模仿前面示例的推理格式一步步给出正确答案。3. 自动思维链Auto-CoT让模型自动生成推理过程1. 用大模型自动生成大量的问题 推理过程 答案 2. 过滤掉推理有误的 3. 聚类选择有代表性的 4. 用这些自动生成的示例做 Few-Shot CoT → 不需要人工编写推理示例完全自动化思维链为什么有效从技术角度看有几个原因1. 分解问题 复杂问题 多个简单问题 每个简单问题模型都能处理 分步处理 一步到位 2. 更多计算空间 直接给答案只输出几个字计算量少 展示推理输出几百字给模型更多思考时间 → 更多的 token 更多的计算 更好的结果 3. 错误可定位 如果最终答案错了看推理过程就能找到哪一步出错 → 方便调试和改进思维链的进阶变体变体核心思想说明CoT一步步线性思考基础版ToT思维树多分支探索像下棋一样考虑多种可能的推理路径GoT思维图推理路径之间可以合并不同的推理思路可以互相补充ReAct推理 行动交替想一步 → 做一步 → 再想下一步Self-Consistency多次推理取投票同一个问题让模型想多次取最常见的答案ToT 思维树的通俗理解思维链CoT 问题 → 想法A → 想法B → 答案 只有一条推理路径走错了就是错了 思维树ToT 问题 → 想法A → 分支A1 → 答案1 → 分支A2 → 答案2 → 想法B → 分支B1 → 答案3 → 分支B2 → 答案4 多条推理路径选择最优的思维链的局限局限说明简单问题不需要11等于几加一步步思考反而啰嗦模型能力不足时效果差小模型可能假装思考但推理过程错误增加响应时间和成本推理过程多了几倍 token更贵更慢不是所有任务都适用翻译、摘要等任务不需要推理用 CoT 没帮助推理可能不准确2026年研究表明模型的思维链有时只是事后合理化并非真正的推理过程从提示技巧到内置能力思维链最初只是提示工程的一种技巧但现在已经演变成大模型的内置能力2022年需要在提示词中加请一步步思考提示技巧 2024年OpenAI o1 模型内置思考环节模型自动思考 2025年DeepSeek-R1 通过强化学习学会慢慢想本专栏 P07 从外部提示到内在能力思维链已经成为推理模型的标准配置一句话总结思维链的核心启示是让 AI 慢慢想比让它快快答更可靠。这个看似简单的道理——先展示推理过程再给出最终答案——不仅大幅提升了复杂任务的准确率还催生了 o1、DeepSeek-R1 等新一代推理模型让 AI 从秒回答案的答题机器进化为会思考的问题解决者。延伸阅读论文解读 P07DeepSeek-R1 —— 通过强化学习让 AI 自发学会慢慢想词汇专栏 W05RLHF —— ChatGPT 是如何学会听话的词汇专栏 W15Prompt —— 思维链是提示工程的重要技巧之一标签#AI术语#思维链#Chain-of-Thought#CoT#推理#提示工程#大模型

更多文章