从零实现 Agent Skills:给 AI 智能体装上可插拔的“技能包“

张开发
2026/4/17 23:22:27 15 分钟阅读

分享文章

从零实现 Agent Skills:给 AI 智能体装上可插拔的“技能包“
大家构建智能体应用的时候或多或少会有个烦恼:系统提示词越写越长,什么代码审查、Git 操作、文件整理、API 测试……全往里塞,最后一个 Prompt 两千多行,跑一次烧一堆 token 不说,模型还经常抓不住重点,东一榔头西一棒子。最近在调研智能体Skill实现方式才算找到一个比较优雅的解法。网上讲概念的文章一大把,但真正动手实现的不多,所以这篇就来把底层原理和代码实现一次性讲清楚,文末会附上完整的一套最小可用实现,130 行 Python 左右就能跑起来。Agent Skills 到底解决了啥问题举个例子,假设现在要做一个全能型的开发助手,传统写法大概是这样:你是一个全能开发助手,擅长代码审查、Git 操作、文件整理、API 测试……[后面跟着两千行的详细指令]这种写法的问题非常明显。一是上下文被塞得满满当当,真正的用户输入反而挤不进去;二是每次调用都要把所有指令传一遍,哪怕这次对话只是想让模型帮忙写个 commit message,你也得把代码审查的规则一起喂给它,token 花得心疼;三是调试起来极其痛苦,模型到底是按哪段指令在回答,基本靠猜。你可以调用以下技能:- code-review: 代码审查,检查 bug 和安全问题- git-helper: Git 工作流和故障排查- file-organizer: 智能文件整理- api-tester: REST API 测试需要时再加载对应技能。这样一来,启动时只加载几百字节的元数据,真正用到某个技能的时候才把完整指令拉进来。核心思想其实一句话就能说清——技能就是结构化的、按需加载的提示词模板。一个 Skill 长什么样每个 skill 本质上就是一个放在独立目录里的SKILL.md文件,由两部分组成:YAML frontmatter 写元数据,下面的 Markdown 正文写详细指令。以代码审查技能为例:---name: code-reviewdescription: 审查代码,检查 bug、安全问题和最佳实践version: 1.0.0---# 代码审查技能你是一名资深代码审查员。## 重点关注1. **安全性** - SQL 注入 - XSS 攻击 - 鉴权绕过2. **代码质量** - 可读性 - 可维护性 - DRY 原则3. **性能** - N1 查询 - 内存泄漏 - 低效算法## 输出格式**总结**:整体评估**关键问题**:安全相关(如有)**改进建议**:优化建议**亮点**:做得好的地方另外最近写了很多数据分析的算子把它转换为Skill了大致内容如下这里有个小经验:结构化的指令比大段散文管用得多。清晰的小标题、列表、预期输出格式,模型跟着走的依从度会高一个档次。要是写成一整段话糊脸上,模型大概率会选择性失忆。目录结构也很简单,每个技能一个子目录:skills/├── code-review/│ └── SKILL.md├── git-helper/│ └── SKILL.md├── file-organizer/│ └── SKILL.md└── api-tester/ └── SKILL.md底层到底是怎么跑起来的整个流程可以拆成四步,理解了这四步,自己撸一个也就是一下午的事。第一步:发现(Discovery)启动时扫描 skills 目录,找所有SKILL.md,但只解析 frontmatter,正文不读。这一步的关键在于只拿元数据——拿到 name 和 description 就行,完整内容先留在磁盘上躺着。def _discover_skills(self): if not self.skills_directory.exists(): return for item in self.skills_directory.iterdir(): if item.is_dir(): skill_file item / SKILL.md if skill_file.exists(): skill self._parse_skill(skill_file, item) self.skills[skill.name] skill这里有个容易踩的坑:不少人图省事,直接在启动时把所有 SKILL.md 全读进内存。这就完全背离了 Skills 的初衷——等于又回到一次性加载所有指令的老路,白忙活一场。元数据是元数据,正文是正文,必须分开处理。第二步:工具注册(Tool Registration)把每个 skill 转成一个 OpenAI function call 工具暴露给模型。模型看到的是一组可调用的函数:def get_skill_tools(self) - List[Dict]: tools [] for skill in self.skills.values(): tool { type: function, function: { name: factivate_skill_{skill.name.replace(-, _)}, description: f激活 {skill.name} 技能。{skill.description}, parameters: { type: object, properties: { context: { type: string, description: 任务上下文 } }, required: [context] } } } tools.append(tool) return tools这里description 字段极其关键,因为模型就是靠这行字判断这个任务该激活哪个技能。写得糊弄,模型就选得糊弄。反例:“帮助写代码” ——这描述等于没写。 正例:“审查 Python/JavaScript 代码,检查安全漏洞、PEP 8 规范和性能问题” ——该覆盖的场景一目了然。另外函数命名建议统一加前缀activate_skill_,调试的时候看日志一眼就知道发生了啥。第三步:激活(Activation)当模型决定要用某个技能,它会调用对应的 function。这时候才去把完整的 SKILL.md 读进来,作为 tool 的返回结果塞回对话里:def activate_skill(self, skill_name: str) - Optional[str]: skill self.skills.get(skill_name) if skill: return skill.load_full_content() return None这就是懒加载。有 20 个技能,但这次对话只用到了 2 个,就只读了 2 个文件的内容进上下文。token 账单能肉眼可见地变薄。第四步:执行(Execution)模型拿到技能指令后,就按着走。这个技能在当次任务里相当于一个临时的 system prompt,任务做完,如果不是多轮对话,这段内容就自然淡出上下文了。对话流程里最容易翻车的地方这里单独拎出来说,因为很多人卡在这一步。完整的一轮对话顺序是这样的:用户发消息模型返回带tool_calls的响应(说要用某个技能)把带 tool_calls 的 assistant 消息加进对话历史(关键步骤)把技能内容作为 tool 角色的消息加进去模型基于技能指令继续生成返回最终答复第 3 步特别容易漏。漏了之后 OpenAI 会直接甩你一个报错,类似这样:Error: Missing required parameter: messages[1].tool_calls[0].type报错的根本原因是 tool_calls 的结构必须严格按嵌套格式来,不能平铺:# 正确格式{ id: call_xxx, type: function, # 这个 type 字段不能少 function: { # function 字段要嵌套 name: activate_skill_code_review, arguments: {...} }}另一个常见翻车点是:技能激活后继续调用模型时,忘了再把 tools 参数传进去。一旦忘了,模型在执行技能指令的过程中就没法再调用其他工具(比如代码执行),技能的能力就瘸了半边。所以每次调模型,tools 参数都得带上。多轮工具调用:要写成循环技能是可以链式触发的。比如 api-tester 这个技能被激活后,它自己还要调execute_python去实际发 HTTP 请求。所以整个处理逻辑必须是个循环,直到某一轮模型不再返回 tool_calls 为止:max_iterations 10 # 防止死循环兜底iteration 0while iteration max_iterations: iteration 1 response self.llm_client.chat( messagesself.messages, toolstools if tools elseNone# 每次都要传 ) if response[tool_calls]: self._handle_tool_calls(response) continue# 继续下一轮,处理 tool 结果 break# 没 tool call 了,拿到最终回复那个max_iterations的兜底很有必要。偶尔模型会抽风循环调用,没有这个保险丝,你的 API 账单可能会变得很精彩。一个可以直接跑的完整实现把上面的逻辑拼起来,核心的SkillsManager类大概长这样:import yamlfrom pathlib import Pathfrom typing import Dict, List, Optionalfrom dataclasses import dataclassdataclassclass Skill: name: str description: str path: Path content: Optional[str] None metadata: Optional[Dict] None def load_full_content(self) - str: if self.content isNone: skill_file self.path / SKILL.md with open(skill_file, r, encodingutf-8) as f: self.content f.read() return self.contentclass SkillsManager: def __init__(self, skills_directory: str skills): self.skills_directory Path(skills_directory) self.skills: Dict[str, Skill] {} self._discover_skills() def _discover_skills(self): ifnot self.skills_directory.exists(): return for item in self.skills_directory.iterdir(): if item.is_dir(): skill_file item / SKILL.md if skill_file.exists(): try: skill self._parse_skill(skill_file, item) self.skills[skill.name] skill except Exception as e: print(f加载技能失败 {item}: {e}) def _parse_skill(self, skill_file: Path, skill_dir: Path) - Skill: with open(skill_file, r, encodingutf-8) as f: content f.read() metadata {} if content.startswith(---): parts content.split(---, 2) if len(parts) 3: try: metadata yaml.safe_load(parts[1]) except yaml.YAMLError as e: print(ffrontmatter 解析失败: {e}) return Skill( namemetadata.get(name, skill_dir.name), descriptionmetadata.get(description, 无描述), pathskill_dir, metadatametadata ) def activate_skill(self, skill_name: str) - Optional[str]: skill self.skills.get(skill_name) if skill: return skill.load_full_content() returnNone工具处理那一坨,重点在于把每种 tool_call 分别处理,技能调用走activate_skill_分支,代码执行走execute_python分支:def _handle_tool_calls(self, response: Dict): # 第 3 步:先把 assistant 的 tool_calls 消息加进去 self.messages.append({ role: assistant, tool_calls: response[tool_calls], content: response.get(content) }) for tc in response[tool_calls]: tool_name tc[function][name] if tool_name execute_python: args json.loads(tc[function][arguments]) result self.code_executor.execute(args.get(code, )) tool_result f执行成功\n输出:\n{result[output]}if result[success] \ elsef执行失败\n错误:\n{result[error]} elif tool_name.startswith(activate_skill_): skill_name tool_name.replace(activate_skill_, ).replace(_, -) skill_content self.skills_manager.activate_skill(skill_name) tool_result f技能 {skill_name} 已激活,请按以下指令执行:\n\n{skill_content} \ if skill_content elsef错误:找不到技能 {skill_name} else: tool_result f错误:未知工具 {tool_name} self.messages.append({ role: tool, tool_call_id: tc[id], content: tool_result })这套模式为什么值得用用下来之后,感受最明显的是几个点。上下文清爽了。以前一股脑塞两千行指令,现在启动只加载几百字节的元数据,用到啥加载啥。token 账单直接腰斩不夸张。模块化做得很干净。加个新技能不用改任何代码,丢一个SKILL.md进去就完事。不想要了就删目录。以前那种动不动就要改主提示词的痛苦一下就没了。调试简单了一大截。日志里明晃晃写着激活了 git-helper 技能,一眼就能看出模型当前是按哪套规则在动作。以前那种大块头提示词,出了问题基本靠瞪眼猜。复用价值很高。别人写的 api-tester 技能,直接拷过来就能用,零修改。相当于给智能体建了一个共享的能力库,慢慢就能攒出一套自己的工具箱。啥时候别用这套这东西挺好,但不是银弹。如果就做个单一用途的小工具,系统提示词只有几十行,上 Skills 反而是杀鸡用牛刀,增加了没必要的复杂度。适合用 Skills 的场景,大致是这几类:多领域的通用型智能体,需要覆盖代码、Git、运维、测试等多个场景;有一堆专门化工作流需要分门别类管理;团队里要沉淀共享能力;或者系统提示词已经撑爆上下文窗口,再不拆就要出事。没必要用的场景也很明确:目的单纯的智能体;提示词规模还很小、维护得过来;或者就是个临时的原型和实验。常见坑位清单过一遍容易翻车的几个点:坑一:启动就把所有技能加载到内存。直接把 Skills 的价值清零,记得只读 frontmatter。坑二:描述写得太虚。帮助处理代码这种描述,模型根本不知道该啥时候调。得写具体:做啥、适用哪类任务、核心能力有哪些。坑三:tool_calls 格式不对。那个type: function和嵌套的function对象,该怎么嵌套怎么嵌套,别自作主张扁平化。坑四:技能激活后调模型忘了传 tools。技能可能还要调其他工具,每一次 LLM 调用都得把 tools 带上。坑五:技能里全是大段散文。模型对结构化指令的依从度比散文高得多,多用小标题、列表、示例、明确的输出格式。坑六:技能粒度没把握好。一个技能对应一个领域,code-review、git-helper、api-tester都是好例子。像developer-tools这种,范围太大了,模型根本选不准。上手做个自己的实际操作非常简单,三步就能搞定:mkdir -p skills/my-skill目录结构可以如下Folder Structureyour-skill-name/├── SKILL.md # Required: instructions metadata├── scripts/ # Optional: executable code├── references/ # Optional: documentation└── assets/ # Optional: templates, resources创建skills/my-skill/SKILL.md:---name: my-skilldescription: 这个技能具体做什么version: 1.0.0---# 我的技能你是 [某领域] 的专家。## 指引1. 第一步2. 第二步3. 第三步## 示例展示这个技能如何发挥作用的具体例子。比如pdf解析的技能可以写成---name: pdf-processingdescription: Extracts text from PDF files using PyPDF2.---# PDF Processing Skill## When to use this skillUse this skill when a user needs to extract text from a PDF file.## How to Use this SkillThis skill provides the extract_text() function from the parse_pdf.py script. Import it into your agent script:pythonfrom skills.pdf_parsing.parse_pdf import extract_textresult extract_text( file_path/path/to/document.pdf, pagesall # or 1-3 or 1,2,3)### Parameters- file_path (str): Path to the PDF file- pages (str): Pages to extract - all, 1-3 (range), or 1,2,3 (specific pages)### ReturnsJSON object with:- success (bool): Whether extraction succeeded- file_path (str): Path to the processed file- total_pages (int): Total pages in PDF- extracted_pages (int): Number of pages extracted- pages (list): Array of {page: number, text: string} objectsAlternatively, you can call the script directly from the command line:commandpython skills/pdf-parsing/parse_pdf.py extract_text --file_path /path/to/file.pdf --pages all丢进去就行,SkillsManager 自动发现。啥代码都不用改。写在最后Agent Skills 说白了就是带加载机制的结构化提示词,听起来朴素,但真正用起来,解决的都是做智能体时最烦的那些问题——上下文膨胀、主提示词越改越乱、不同场景相互打架、调试全靠盲猜。完整实现不到两百行 Python,一个下午就能跑起来。建议先写一个技能试试水,感觉顺手了再逐步扩展。有些看起来很花哨的架构,其实核心就是把常识性的工程思路——按需加载、关注点分离、模块化——老老实实落到 Prompt 工程里而已。顺便一提,AgentSkills.io 是这个格式的开放标准,SKILL.md命名、frontmatter schema、目录结构、最佳实践都定好了。按标准来,写出来的技能可以跨项目复用,甚至用到别人家的智能体里也能直接跑,这点属实香。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多文章