收藏必备!小白程序员轻松入门大模型:ReAct Agent核心原理与实战(内含最佳实践)

张开发
2026/4/8 14:57:06 15 分钟阅读

分享文章

收藏必备!小白程序员轻松入门大模型:ReAct Agent核心原理与实战(内含最佳实践)
本文深入浅出解析ReAct Agent的核心原理与工程价值帮助开发者快速掌握从“写流程”到“造智能体”的关键跃迁。文章详细介绍了Function Calling、MCP和Skills的概念、区别及核心原理并通过实际案例阐述了这三者在AI Agent工具调用中的重要作用。此外还探讨了MCP与Skills的竞合关系以及Lynxe框架在Func-Agent领域的实践与总结。对于想要了解大模型和AI Agent开发的小白和程序员来说本文是不可或缺的学习资料。一句话总结Function CallingAI Agent调用工具的基础能力也是后面两个能够存在的基础。MCP (Model Context Protocol)由Anthropic推动的开放标准为LLM应用提供标准化接口以连接和交互外部数据源和工具现已捐赠给linux基金会。SkillsAnthropic Claude的一个新的尝试可以允许用户更细致的用文字定义指令、脚本和资源跟MCP有竞合关系后面会从不同角度来阐述这个竞合关系虽然很多人认为是互补但实际上这两个是竞争关系更大一些。为什么需要这些技术理解工具调用的基础要讲明白为什么这几个概念是竞合关系需要先简单了解一下AI Agent工具调用的基本原理。AI Agent工具调用的基本流程一个典型的AI Agent工具调用流程是这样的1、LLM接收用户请求和工具描述用户提出需求比如帮我查一下北京今天的天气系统向LLM提供可用工具的列表和描述比如天气查询工具可以查询指定城市的天气信息2、LLM决定是否需要调用工具LLM根据用户需求和工具描述判断是否需要调用工具如果需要LLM会生成结构化的工具调用请求这里的关键是LLM返回的是结构化的JSON格式而不是自然语言。比如用户说帮我查一下北京今天的天气LLM可能会返回{id:chatcmpl-abc123,object:chat.completion,choices:[{index:0,message:{role:assistant,content:null,tool_calls:[{id:call_abc123,type:function,function:{name:get_weather,arguments:{\city\:\北京\,\date\:\today\}}}]},finish_reason:tool_calls}]}这种结构化的输出格式就是Function Calling的核心机制。它让系统能够稳定地解析LLM的意图而不需要复杂的文本解析逻辑。注意关键字段tool_calls当需要调用工具时这里包含工具调用的信息function.name要调用的工具名称function.arguments工具的参数JSON字符串格式3、系统解析并执行工具调用系统解析LLM生成的工具调用请求执行对应的工具函数比如调用天气API获取工具执行结果 还是以上面的llm返回为例上面的JSON格式会被系统解析并转换为真正的函数调用。以JavaScript为例//1. 从LLM响应中提取工具调用信息 const toolCallresponse.choices[0].message.tool_calls[0];const functionNametoolCall.function.name;//get_weatherconst functionArgsJSON.parse(toolCall.function.arguments);//{city:北京, date:today}//2. 根据工具名称找到对应的函数 const tools{get_weather:(city,date){// 执行天气查询逻辑return北京今天天气25°C晴天;}, //... 其他工具};//3. 执行工具调用 const resulttools[functionName](functionArgs.city, functionArgs.date);// 实际调用tools[get_weather](北京,today)这个过程是自动的系统根据function.name找到对应的函数解析function.arguments获取参数然后执行调用。这就是Function Calling让工具调用变得可预测和可靠的核心机制。4、将结果返回给LLM工具执行结果被返回给LLMLLM根据结果决定下一步行动继续调用工具或者生成最终回答。小结工具调用的本质这个流程的核心在于LLM需要把用户的非结构化需求一段自然语言文本转换为结构化的函数调用函数名和参数然后与其他应用程序交互再将结构化结果返回给模型让模型能够基于这些结果进行下一步决策。问题的本质在于历史上其他系统数据库、API、文件系统等只能处理结构化信息而LLM擅长处理非结构化信息文本。因此LLM必须想办法在两种信息形式之间架起桥梁将非结构化的用户需求转换为结构化的函数调用这样才能与外部系统交互。这就是Function Calling的本质也是后面MCP和Skills能够存在的前置条件。既然有了工具调用为什么又会有MCP和Skills呢Function Calling确实解决了核心问题让LLM能够稳定地输出结构化的工具调用请求实现了非结构化→结构化的转换。这是AI Agent工具能力的基础。但在实际应用中开发者很快发现了一个新的问题工具集成成本太高。现实世界中有大量的既有系统和数据数据库里存储着业务数据文件系统里有各种文档和代码GitHub上有项目仓库和Issuedingding里有团队沟通记录还有各种API服务提供实时数据。这些既有系统里有着丰富的信息如果能让LLM直接使用这些系统和数据AI Agent的能力会大大增强。但问题是如何让LLM能够使用这些既有系统在Function Calling的框架下每个既有系统都需要单独集成到应用中。每个组织或公司都有自己的API、认证方式、数据格式开发者需要为每个组织或公司编写对应的函数实现。这就是MCP产生的原因提供一个服务可以让既有系统快速集成到LLM中。MCP的核心其实还是基于Function Calling的。它做的事情很简单把Function Calling的调用在客户端转换成一套JSONHTTP的请求。然后提供一套Server来响应这个JSONHTTP请求这样就能实现各类应用都可以被LLM使用的效果。LLM -Function Calling -MCP Client -JSONHTTP请求 -MCP Server -既有系统GitHub/Slack/数据库等 ↓ LLM- Function Calling结果- MCP Client- JSON响应- MCP Server- 既有系统返回结果但MCP解决了工具集成的问题后又出现了另一个问题。Function Calling和MCP都会有任务流程定义困难的问题在实际使用中用户经常需要让AI Agent按照特定的方式执行任务。比如格式化Excel表格要按照公司的品牌指南法律审查要遵循特定的合规性要求数据分析要按照组织的工作流程。这些任务往往需要复杂的提示词和多个步骤的组合。但在Function Calling和MCP的框架下用户面临一个两难的问题当前的大模型很难仅仅依托自己的模型能力就做出最优的工具调用步骤。很多任务需要特定的执行顺序、规则和约束但把这些步骤全部写成代码又不太现实。就像在第一篇文章里讲的模型的核心优势是面对不确定性时可以走一步看一步动态调整策略。如果全部落成程序就会丧失模型的核心优势。举个例子以实际在跑的一个new_branch流程定义为例这个流程用文字写到一个markdown里面每次都让模型遵照执行1)确认本地的 VERSION 与 pom.xml 与 本地branch 中的版本一致不一致的话以pom.xml为准2)mvn package3)进入 ui-vue3 运行pnpm lint4)退回项目目录gitmerge upstream/main5)项目目录运行makeui-deploy6)git提交 branch到origin7)git打包 tag名字与pom的版本号一致先删除远程tag如果存在git push upstream :refs/tags/v{版本号}然后上传tag到 upstream(上传之前请先用git remote 看一下upstream是哪里确认是spring-ai-alibaba/JManus)这个流程有7个步骤每个步骤都有特定的顺序、条件和规则。如果完全写成代码每一步都要处理各种异常情况比如版本不一致、tag已存在、upstream地址不对等代码会变得非常复杂。但如果只给模型一个简单的提示词帮我创建新分支模型可能无法按照这个精确的流程执行或者执行顺序不对。 而用文字表达非常直接简单而且实际跑的过程中只有很小的概率会出错非常爽。而这就是这个问题的本质如何在尽可能的准确的前提下能让用户能用文字而非代码指导模型按照特定的流程和规则执行任务这就是Skills产生的原因其实也是Lynxe的Func - Agent产生的核心原因提供一个方式让用户可以用文字定义指令、脚本和资源形成可复用的任务流程。Skills的核心其实也是基于Function Calling的。它做的事情很巧妙通过一个固化的函数和参数让模型去查找和加载固定的skills文档。这里的关键是Skills完全依赖于Function Calling这个基础能力。 如果没有Function CallingSkills就无法工作。Skills只是在Function Calling之上的一个巧妙应用把加载文档这个操作封装成一个函数然后让Claude在需要时自动调用。具体工作流程是这样的初始化阶段用户用文字定义指令、脚本和资源打包成Skills包含SKILL.md和可选的脚本、参考资料等。Claude在启动时会读取所有Skills的元数据名称和描述这些元数据被加载到模型的上下文中每个约100 token。发现阶段当用户发起请求时Claude会根据请求内容对比已加载的Skills元数据判断是否需要使用某个Skill。这个判断过程本质上就是LLM根据上下文做决策跟Function Calling中判断是否需要调用工具是一样的。加载阶段Function Calling如果Claude判断需要某个Skill它会通过Function Calling机制调用一个专门的加载函数类似load_skill(skill_name)将对应的SKILL.md文档内容读取并加载到当前上下文中。这一步完全依赖Function Calling的能力。执行阶段继续使用Function CallingSKILL.md的内容包含指令、流程、示例等被加入到上下文后Claude按照文档中定义的指令执行任务。如果SKILL.md中定义了需要执行脚本比如scripts/rotate_pdf.pyClaude还是会通过Function Calling调用执行脚本的函数。如果需要加载参考资料同样是通过Function Calling调用读取文件的函数。可以看到整个Skills的运行过程从加载文档、执行脚本到读取资源每一步都离不开Function Calling。Skills并没有创造新的能力它只是把Function Calling这个基础能力组织成了一个更易用的形式让用户可以用文字定义流程让Claude自动发现和加载相关知识。 从本质来说它替代的是mcp调用的函数里面过去可能会用代码写的一套串接各种API的逻辑流程用这种方式可以增强流程的适应性其实也是呼应了第二篇文章的核心观点Agent将决策权完全下放给了Agent和Prompt能够解决原有写程序不能解决的问题——比如处理不确定性、动态调整策略、理解自然语言意图等。Claude 判断是否需调用某 Skill基于请求内容匹配已加载的 skill_name 与 description ↓ 若需要则通过 Function Calling 调用 load_skill(skill_name)↓ 将对应 SKILL.md 的内容注入当前上下文作为执行指令依据 ↓ Claude 依照 SKILL.md 中定义的流程执行任务 ↓ 在执行过程中按需通过 Function Calling • 调用bash执行附带脚本 • 调用 read_file 读取所需资源文件 ↓ 整合执行结果Function Calling、MCP、Skills的核心定位通过前面的分析可以看到Function Calling、MCP和Skills三者之间的本质关系MCP和Skills都是基于Function Calling的它们只是在Function Calling这个基础能力之上的不同应用方式。MCP的核心是解决与既有系统的接驳问题 实际上与外部系统接驳的方法并不只有MCP这一种——可以用curl、bash等传统方式来与程序接驳。MCP的价值在于它提供了一套标准化的接驳协议让不同的工具和数据源能够以统一的方式被LLM使用。通过JSON - RPC协议和标准化的工具描述格式MCP降低了工具集成的成本让开发者不需要为每个系统单独编写集成代码。但本质上MCP更偏重是一套接驳标准而不是唯一的接驳方式。Skills则实际上是一个sub - agent的包装 它让用户可以用文字来写流程替代了过去在MCP调用的函数里用代码写的一套串接各种API的逻辑流程。这种方式可以增强流程的环境适应性——因为模型可以根据实际情况动态调整策略处理不确定性理解自然语言意图。这正是第二篇文章提到的核心观点Agent将决策权完全下放给了模型和Prompt能够解决原有写程序不能解决的问题。但代价就是不可能100%准确因为模型的行为存在不确定性无法像传统代码那样保证完全可预测的执行结果。MCP与Skills的竞争关系虽然很多人认为MCP和Skills是互补关系但实际上这两者更多是竞争关系。这种竞争主要体现在它们解决的是同一个问题如何整合多个既有系统实现复杂的多步骤任务**。**要理解它们的竞争关系我们需要回到Function Calling的本质LLM要实现工具调用实际上最需要的内容只有函数名、参数要求以及一个description。基于这个前提我们来看看MCP和Skills的不同解决思路MCP的解决思路****通过标准化的协议和Server架构引入了一个新的协议转换Server这个Server可以用Node.js、Python或其他语言来实现。但这个协议转换层往往也只是先做了函数调用的协议转换然后再增加一个description打包发布。这个流程是非常薄的——它本质上只是在Function Calling的基础上增加了一层JSON-RPC协议转换。Skills的解决思路****选择了更简单的办法可以不需要这层协议转发Server直接用bash以参数形式调用结果其实是一样的还更省事。换句话说MCP的JSON-RPC可以被直接替换为命令行脚本或curl远程调用在本地直接调用。这样甚至都不需要额外做MCP封装了。而且在这个基础上Skills还能支持更复杂的流程定义——通过SKILL.md文档告知LLM如何组合多个接口调用所以长流程任务的成功率会更高。这就是为什么说它们是竞争关系****当用户选择使用Skills时他们就不需要在MCP Server的函数中编写复杂的串接代码了反之如果选择在MCP Server中实现完整逻辑Skills的价值就会降低。它们解决的是同一个问题如何整合多个既有系统但采用了不同的方法协议转换Server代码型流程定义 vs 直接命令行调用文字化流程定义。三者的总结性对比表如何学习大模型 AI 由于新岗位的生产效率要优于被取代岗位的生产效率所以实际上整个社会的生产效率是提升的。但是具体到个人只能说是“最先掌握AI的人将会比较晚掌握AI的人有竞争优势”。这句话放在计算机、互联网、移动互联网的开局时期都是一样的道理。我在一线科技企业深耕十二载见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包✅ 从零到一的 AI 学习路径图✅ 大模型调优实战手册附医疗/金融等大厂真实案例✅ 百度/阿里专家闭门录播课✅ 大模型当下最新行业报告✅ 真实大厂面试真题✅ 2026 最新岗位需求图谱所有资料 ⚡️ 朋友们如果有需要《AI大模型入门进阶学习资源包》下方扫码获取~① 全套AI大模型应用开发视频教程包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点② 大模型系统化学习路线作为学习AI大模型技术的新手方向至关重要。 正确的学习路线可以为你节省时间少走弯路方向不对努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划带你从零基础入门到精通③ 大模型学习书籍文档学习AI大模型离不开书籍文档我精选了一系列大模型技术的书籍和学习文档电子版它们由领域内的顶尖专家撰写内容全面、深入、详尽为你学习大模型提供坚实的理论基础。④ AI大模型最新行业报告2025最新行业报告针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估以了解哪些行业更适合引入大模型的技术和应用以及在哪些方面可以发挥大模型的优势。⑤ 大模型项目实战配套源码学以致用在项目实战中检验和巩固你所学到的知识同时为你找工作就业和职业发展打下坚实的基础。⑥ 大模型大厂面试真题面试不仅是技术的较量更需要充分的准备。在你已经掌握了大模型技术之后就需要开始准备面试我精心整理了一份大模型面试题库涵盖当前面试中可能遇到的各种技术问题让你在面试中游刃有余。以上资料如何领取为什么大家都在学大模型最近科技巨头英特尔宣布裁员2万人传统岗位不断缩减但AI相关技术岗疯狂扩招有3-5年经验大厂薪资就能给到50K*20薪不出1年“有AI项目经验”将成为投递简历的门槛。风口之下与其像“温水煮青蛙”一样坐等被行业淘汰不如先人一步掌握AI大模型原理应用技术项目实操经验“顺风”翻盘这些资料真的有用吗这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理现任上海殷泊信息科技CEO其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证服务航天科工、国家电网等1000企业以第一作者在IEEE Transactions发表论文50篇获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的技术人员这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。以上全套大模型资料如何领取

更多文章