全部播客
深度解读:Context Engineering 时代来临 — Agent Skill 官方最佳实践白皮书
产品拆解

深度解读:Context Engineering 时代来临 — Agent Skill 官方最佳实践白皮书

从 Prompt Engineering 到 Context Engineering 的范式转变:你给 AI 看什么信息,比你怎么说更重要。上下文窗口是公共资源,注意力预算有限,好的 Skill 只需 50 个 token,坏的 150 个 token 都在说'正确的废话'。

📅 2026年3月15日 ⏱ 9:36 👤 Vivi
产品拆解Context EngineeringAgent Skills最佳实践LLM
0:00 9:36

📝 Show Notes

🎯 本期概要

  • Anthropic 官方发布了《Effective Context Engineering for AI Agents》Skill Authoring Best Practices 白皮书,标志着 AI 交互范式从 Prompt Engineering 到 Context Engineering 的重大转变。核心认知:你给 AI 看什么信息,比你怎么说更重要。上下文窗口是公共资源,注意力预算有限,好的 Skill 只需 50 个 token 就能完成工作,坏的 150 个 token 都在说「正确的废话」。

⏱️ 时间线 / 本期亮点

  • 亮点一:范式转变 — 从 Prompt Engineering(怎么写提示词)到 Context Engineering(管理整个上下文信息流),认知模型彻底改变
  • 亮点二:上下文窗口是公共资源 — 系统提示、对话历史、用户请求、Agent Skill 共享有限空间,每新增一个 token 都消耗注意力
  • 亮点三:反直觉原则 — 默认假设 Claude 已经很聪明,不要在 Skill 里解释基础概念(如「什么是 PDF」)
  • 亮点四:环境设计 = 提示工程 — 用 CLAUDE.md 作为持久项目记忆,AI 性能指数级提升
  • 亮点五:U 型注意力曲线 — 模型对开头和结尾记得最准,中间容易被忽视,关键信息要放在首尾

💡 深度观点

  • Context Rot(上下文腐败):随着对话变长,早期信息被模型「遗忘」或回忆能力下降。这意味着你精心编写的系统提示可能在 10 轮对话后就失效了
  • Skill 发现机制:启动时只加载元数据(名称+描述),按需读取 SKILL.md,懒加载额外文件——这是上下文资源管理的最佳实践
  • 角色转变:从「提示词工程师」到「上下文架构师」,从「发令员」到「策展人」。最强大的人工智能用户,不是最能说的人,而是最懂得什么时候该保持沉默的人
  • 好的 vs 坏的 Skill:好的 Skill 直接给代码和具体指令,50 token 搞定;坏的 Skill 花 150 token 解释概念,真正有用的信息被淹没在噪音中

🤔 值得思考的问题

  • 如果你现在每天给 AI 写的提示词平均 500 token,用 Context Engineering 的方法能压缩到多少?
  • 「策展人」思维是否适用于其他领域?比如管理团队、做产品、写文档?
  • U 型注意力曲线对日常沟通有什么启发?你在开会时会不会也只记住开头和结尾?
  • 作为 AI 产品经理,如何将 Context Engineering 的原则应用到产品设计中去?

📚 参考资料与延伸阅读

💡 核心纪要

Context Engineering

从 Prompt Engineering 演进到 Context Engineering:重点不是你怎么告诉 AI,而是你给 AI 看什么信息。上下文窗口是公共资源,需要精细管理。

Agent Skill

OpenClaw 的模块化能力单元,好的 Skill 只需 50 个 token 就能完成工作,坏的 Skill 用 150 个 token 还在说「正确的废话」。

注意力预算

AI 模型的注意力窗口有限,你放入的每一条信息都在消耗预算。好的 Skill 作者像精简编辑,差的像话痨。

系统提示词

给 AI Agent 的最高优先级指令,定义了它的身份、行为和边界。好的系统提示词让 AI 自主判断,差的让 AI 每一步都需要确认。

📬

想听什么?

告诉我你最感兴趣的话题,也许下期就是为你量身定做的