4月24日,由中科算网算泥社区主编的
《2026 Agent Skills技术与安全白皮书》
正式发布!该报告旨在为技术人员、企业决策者、安全从业者和生态建设者提供一份系统、深入、可操作的参考指南。
2022 年底 ChatGPT 横空出世后,全世界开始学习如何和 AI“说话”。我们发明了“提示词工程”这个概念,尝试用越来越长的 Prompt 引导模型做出我们想要的行为。Zero-shot、Few-shot、Chain-of-Thought、ReAct……各种 Prompt 技巧层出不穷。
Prompt 范式特征:
一次性自然语言指令 + 少量上下文示例。用户需要在一段 Prompt 里告诉模型所有信息:你是谁、你要做什么、怎么判断、输出什么格式。
指令不可复用:
每次开始新对话,同样的 Prompt 要重新粘贴一遍。写一个高质量的 Prompt 本身就是脑力劳动,但这份劳动成果只能存在自己的备忘录里。
知识碎片化:
团队里每个人都有一套自己的 Prompt,质量参差不齐。好的 Prompt 无法沉淀为组织资产。
上下文窗口瓶颈:
长 Prompt 吃掉大量 token,直接推高成本和延迟。更致命的是,上下文越长,模型在关键信息上的注意力越容易稀释。
2023 年,OpenAI 推出了 Function Calling 能力,随后 Anthropic、Google 等主流模型厂商纷纷跟进标准化工具调用接口。这是一个质的飞跃——模型不仅能“说”,还能“做”。
Function/Tools Calling 的优势:
外部能力调用标准化。模型可以通过结构化的 JSON schema 调用数据库、搜索 API、执行系统命令。MCP(Model Context Protocol)在 2024 年 11 月由 Anthropic 推出,进一步标准化了工具发现、鉴权和上下文传递流程。
核心局限:
工具只解决“能做什么”,无法封装“应该怎么做”。Function Calling 定义的是工具的“接口”,不是工具的“用法”。举个例子:模型知道有一个execute_sql工具可以调用,但它不知道你的数据库 schema 长什么样、查询应该遵循什么规范、什么样的查询在这个业务场景下是“对”的。这些知识,每次都得写在 Prompt 里。
Skills 的范式跃迁:
它把“过程性知识”(procedural knowledge)——即“在特定场景下应该如何做事”——封装成了独立、可复用、可组合的模块。这不是给模型增加一个工具,而是给模型安装一份“专业操作手册”。
这个范式的核心口号是:“Don’t Build Agents, Build Skills Instead.” ——不是去造一个什么都会的全能 Agent,而是造一堆专业的 Skills,让 Agent 按需加载。
2024 年 11 月,Anthropic 正式发布了 Model Context Protocol(MCP)。这是一个开源协议标准,旨在标准化 AI 模型与外部工具、服务和数据之间的交互方式。
MCP 的设计灵感来自 Language Server Protocol(LSP)——就像 LSP 让任何编辑器都能获得智能代码补全能力一样,MCP 让任何 AI Agent 都能通过统一接口调用任何外部工具。它采用结构化的 JSON-RPC 协议,定义了工具发现、数据检索、命令执行和提示模板等标准化交互模式。
MCP 解决了 AI Agent 与外部系统集成的三大痛点:
工具发现:
Agent 可以自动发现 MCP Server 提供的所有工具,无需人工配置。
鉴权标准化:
统一的认证授权流程,不再需要为每个工具单独实现鉴权逻辑。
上下文传递:
标准化的上下文交换格式,确保 Agent 和工具之间能够顺畅沟通。
MCP 解决了“能调用什么”的问题,但没有解决“应该怎么调用”的问题。以数据库操作为例:MCP 可以让 Agent 连接到 PostgreSQL,但 Agent 仍然不知道:
什么样的 SQL 在这个业务场景下是被认为“安全”的?
这些知识——项目的技术规范、团队的最佳实践、行业的 SOP——仍然散落在各个项目的 README、Wiki、Confluence 和每个人的长 Prompt 里。MCP 给了 Agent“手脚”,但“脑子”里的专业知识还是空的。
AI Coding / Agent IDE 的快速崛起
2024 到 2025 年间,AI 编程工具进入爆发期。Claude Code、Cursor、GitHub Copilot Workspace、Codex CLI、Gemini CLI 等工具让开发者开始习惯“让 AI 写代码”。Computer Use 功能更是让 AI 获得了直接操作电脑的能力——移动鼠标、点击按钮、输入文字,AI 有了真正的“手脚”。
但问题也随之而来。开发者们发现,虽然 AI 能写代码了,但每次都要先教它一堆东西——项目的目录结构、团队的技术栈选择、代码风格规范、测试框架用法、部署流程……这些“常识”对 AI 来说每次都是新知。开发者 Jesse Vincent 最早意识到这个问题的严重性:“开发者们发现,虽然因为 Computer Use 的诞生,让 AI 有了‘手脚’,但 AI‘脑子’里缺少针对特定任务的专业 SOP(标准作业程序)。”
重复教 AI 项目结构:
每次开新会话,都要重新告诉 AI“我们这个项目的目录是这样的,配置文件在哪儿,测试用例在哪儿”。信息传递成本极高。
团队经验无法标准化:
资深工程师脑子里有一整套“在这个项目里怎么把事做对”的经验——代码审查的检查点、部署的 checklist、文档的格式要求。这些经验没法自动传承给新成员,更没法让 AI 自动继承。
跨产品迁移成本高:
你在 Claude Code 里写好的 Prompt,没法直接搬到 Cursor 里用。每个工具的集成方式不同,知识被锁死在特定平台上。
Tools ≈ 驱动层:
让 CPU 能连接外部设备
Skills ≈ 行业 SDK / Playbook 集合:
封装特定领域的专业知识和工作流程,告诉 CPU 在这个行业里具体怎么干活
这个类比解释了为什么 Skills 如此重要——它补上了从“通用智能”到“专业能力”之间最关键的那一层。正如 PC 时代的 SDK 让开发者不用从底层写起,Skills 让 Agent 不用从零开始学习每个领域的专业知识。
Agent Skills 最初是作为 Claude Code 的扩展机制设计的,解决的是编程场景下“让 AI 更懂项目”的问题。早期 Skills 大多围绕代码审查、测试自动化、Git 工作流、文档生成等开发者场景。
2026 年 1 月是 Skills 生态的转折点。非技术用户开始涌入,将 Skills 用于大量非编码场景:
一位科技行业资深分析师总结道:“当你把一堆报销单扔给它时,它会默默启动‘Expense-Audit’ Skill,自动调取 OCR、校验税号、生成报表。这种‘挂载即用’的体验,让 Skills 成了 2026 年职场人最梦寐以求的‘外挂’。”
Anthropic 发布 Skills 开放标准后,行业跟进速度快得惊人:
微软在 VS Code 和 GitHub 中直接集成
OpenAI 在 Codex CLI 和 ChatGPT 中采用了几乎相同的架构
Cursor 成为首个全面支持 Agent Skills 的 AI IDE
国内阿里 Qoder、字节 Trae、腾讯 CodeBuddy 纷纷支持 Skills
以上内容为
《2026 Agent Skills技术与安全白皮书》
的部分内容节选,完整版白皮书请扫描下方二维码下载。