全部播客
产品拆解
深度解读:Context Engineering 时代来临 — Agent Skill 官方最佳实践白皮书
从 Prompt Engineering 到 Context Engineering 的范式转变:你给 AI 看什么信息,比你怎么说更重要。上下文窗口是公共资源,注意力预算有限,好的 Skill 只需 50 个 token,坏的 150 个 token 都在说'正确的废话'。
产品拆解Context EngineeringAgent Skills最佳实践LLM
0:00 9:36
在以下平台收听
📝 Show Notes
🎯 本期概要
- Anthropic 官方发布了《Effective Context Engineering for AI Agents》和 Skill Authoring Best Practices 白皮书,标志着 AI 交互范式从 Prompt Engineering 到 Context Engineering 的重大转变。核心认知:你给 AI 看什么信息,比你怎么说更重要。上下文窗口是公共资源,注意力预算有限,好的 Skill 只需 50 个 token 就能完成工作,坏的 150 个 token 都在说「正确的废话」。
⏱️ 时间线 / 本期亮点
- 亮点一:范式转变 — 从 Prompt Engineering(怎么写提示词)到 Context Engineering(管理整个上下文信息流),认知模型彻底改变
- 亮点二:上下文窗口是公共资源 — 系统提示、对话历史、用户请求、Agent Skill 共享有限空间,每新增一个 token 都消耗注意力
- 亮点三:反直觉原则 — 默认假设 Claude 已经很聪明,不要在 Skill 里解释基础概念(如「什么是 PDF」)
- 亮点四:环境设计 = 提示工程 — 用
CLAUDE.md作为持久项目记忆,AI 性能指数级提升 - 亮点五:U 型注意力曲线 — 模型对开头和结尾记得最准,中间容易被忽视,关键信息要放在首尾
💡 深度观点
- Context Rot(上下文腐败):随着对话变长,早期信息被模型「遗忘」或回忆能力下降。这意味着你精心编写的系统提示可能在 10 轮对话后就失效了
- Skill 发现机制:启动时只加载元数据(名称+描述),按需读取 SKILL.md,懒加载额外文件——这是上下文资源管理的最佳实践
- 角色转变:从「提示词工程师」到「上下文架构师」,从「发令员」到「策展人」。最强大的人工智能用户,不是最能说的人,而是最懂得什么时候该保持沉默的人
- 好的 vs 坏的 Skill:好的 Skill 直接给代码和具体指令,50 token 搞定;坏的 Skill 花 150 token 解释概念,真正有用的信息被淹没在噪音中
🤔 值得思考的问题
- 如果你现在每天给 AI 写的提示词平均 500 token,用 Context Engineering 的方法能压缩到多少?
- 「策展人」思维是否适用于其他领域?比如管理团队、做产品、写文档?
- U 型注意力曲线对日常沟通有什么启发?你在开会时会不会也只记住开头和结尾?
- 作为 AI 产品经理,如何将 Context Engineering 的原则应用到产品设计中去?
📚 参考资料与延伸阅读
- Anthropic 官方博客 — Effective Context Engineering for AI Agents — Anthropic 官方发布的 Context Engineering 最佳实践
- Platform Claude Docs — Skill Authoring Best Practices — Agent Skill 编写白皮书,详细的 Skill 设计指南
💡 核心纪要
Context Engineering
从 Prompt Engineering 演进到 Context Engineering:重点不是你怎么告诉 AI,而是你给 AI 看什么信息。上下文窗口是公共资源,需要精细管理。
Agent Skill
OpenClaw 的模块化能力单元,好的 Skill 只需 50 个 token 就能完成工作,坏的 Skill 用 150 个 token 还在说「正确的废话」。
注意力预算
AI 模型的注意力窗口有限,你放入的每一条信息都在消耗预算。好的 Skill 作者像精简编辑,差的像话痨。
系统提示词
给 AI Agent 的最高优先级指令,定义了它的身份、行为和边界。好的系统提示词让 AI 自主判断,差的让 AI 每一步都需要确认。
📬
订阅播客速递
每周一封,不错过好内容
📬
想听什么?
告诉我你最感兴趣的话题,也许下期就是为你量身定做的