20260403_153320_通过_Claude_Code_源码,来分析_Anthropi

张开发
2026/4/16 22:58:46 15 分钟阅读

分享文章

20260403_153320_通过_Claude_Code_源码,来分析_Anthropi
一场意外的公开课前两天 Claude Code 的源码泄露了。全球开发者社区都开始狂欢了。但不仅仅是拿到了源码而是因为终于能看到 Anthropic 是怎么让 AI 写代码这么稳定的了了解它底层实现逻辑。说实话很多人以为 AI 写代码靠的是模型聪明或者神奇的 Prompt。看完源码才发现——完全不是这么回事。真正让 Claude Code 稳定运行的是一套厚重的工程结构叫Harness Agent 治具。今天我就用大白话给你拆解一下这套系统。Harness 是什么HarnessAgent Harness是 AI Agent 技术栈中的一个层级概念。要理解它需要先区分三层架构Framework → Runtime → HarnessLangChain 团队提出了这个分层LangChain 是 Agent Framework提供抽象和构建模块LangGraph 是 Agent Runtime提供持久化执行、流式传输、人在回路等基础设施而 DeepAgents 是 Agent Harness在框架之上进一步封装自带默认 prompt、工具处理、规划能力、文件系统访问等开箱即用。简单说Harness 是一个管理不确定性的系统。大语言模型 LLM 有个致命问题不稳定。•上下文太长会忘事•任务太复杂会失焦•规则太多会遗漏Harness 的任务就是把不稳定的模型变成可预期、可管理的产品。因为这个词本身带有马具/缰绳的隐喻——LLM 就像一匹强壮的马能力强大但没有方向感和边界意识Harness 就是缰绳和马具控制它的方向和行为。没有 Harness 模型就是一台失控的野马。核心 1 三层记忆架构问题 AI 容易忘事你跟 AI 聊着聊着它突然问你“我们刚才在说什么”这就是上下文太长模型注意力分散了。Claude Code 的解决方案状态外部化不把对话当唯一载体而是把任务状态写到文件里。比如feature-list.md- 功能清单progress-log.md- 进度记录CLAUDE.md- 项目说明每次 AI 重新进场先读这些文件直接知道当前状态不用盲猜。三层记忆架构记忆层内容作用绘画记忆当前对话短期记忆持久记忆MD 文件记录中期记忆团队记忆共享文档长期记忆核心思想不要指望模型记得住而是帮它记笔记。核心 2 四层上下文压缩问题对话太长 AI 会忘你跟 AI 聊了 100 轮它还记得第 1 轮说什么吗记不住。Claude Code 的解决方案压缩旧内容关键原则能用规则就不用模型。压缩层方法示例V 压缩纯规则清理工具输出只保留意图自动压缩规则轻量模型总结旧对话传统压缩滑动窗口截断超长内容Session Memory 压缩提取关键信息写入持久记忆目标保证长对话下记忆依然清晰。核心 3 确定性控制下沉问题 Prompt 不靠谱很多人把规则写在 Prompt 里“你一定要记得 XXX”。但 AI 会忘尤其是上下文太长的时候。Claude Code 的解决方案下沉到系统层把必须遵守的规则写到代码里而不是 Prompt 里。比如“编辑后必须格式化” → 系统自动执行“配置改动必须记录” → Hook 自动拦截“危险操作必须审批” → 权限系统强制执行不要期待模型乖乖听话而是用系统强制保证。核心 4 三段式权限设计问题 AI 太危险AI 能改文件、跑命令、连网络这很危险。但如果每次都要人工审批用户会烦然后盲目点同意。Claude Code 的解决方案三段式中介层权限段操作类型处理方式自动放行读文件、低风险修改无需审批条件式自动格式化、特定测试限定范围自动高风险拦截Shell 命令、外网传输分类器判断或人工审批目标减少无意义的审批聚焦真正危险的操作。核心 5 上下文防火墙问题主对话被污染AI 在调试代码时会输出大量报错信息、失败尝试。这些东西都堆在主对话里会把上下文撑爆。Claude Code 的解决方案多 Agent 架构主控 Agent 只负责规划和决策。具体任务交给子 Agent 如 generator 、 evaluator 处理。子 Agent 完成后只回传结论和产出不回传中间的调试、报错、失败尝试。这就是上下文防火墙隔离噪音保护主对话。核心 6 验证回路问题 AI 生成 ≠ 正确AI 能生成代码但不代表代码是对的。Claude Code 的解决方案验证比生成更重要让 AI “看到执行后的世界”。验证方式作用运行测试检查功能是否正确查看日志确认执行过程端到端检查验证整体流程Reviewer Agent独立审查代码只有具备验证回路 AI 才能从代码生成器变成可靠交付系统。总结 Claude Code 的工程哲学看完这套系统我总结了一个核心思想不要指望单一模型解决所有问题。把模型当引擎用 Harness 兜底。模型负责Harness 负责理解需求状态管理生成代码权限控制做决策验证回路这才是让 AI Agent 长时间稳定运行的真正秘密。这对你意味着什么如果你是开发者1.学习 Harness 思想- 不要只靠 Prompt 要设计系统- 把规则下沉到代码层2.参考这套架构- 状态外部化- 上下文压缩- 权限分层- 验证回路3.关注 AI Agent 开发- LangChain 、 Dify 等框架- 多 Agent 协作模式如果你是产品经理1.理解 AI 的局限性- AI 不稳定需要系统兜底- 不要指望 AI 一次做对2.设计 AI 产品时考虑 Harness- 权限控制- 状态管理- 验证机制3.降低用户预期- AI 不是万能的- 需要人工审核和兜底学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多文章