AI Agent 为什么总像“新员工”?Glean 用 Trace Learning 把每次执行痕迹变成企业专属生产力资产

张开发
2026/4/16 23:02:36 15 分钟阅读

分享文章

AI Agent 为什么总像“新员工”?Glean 用 Trace Learning 把每次执行痕迹变成企业专属生产力资产
你在企业里部署了一个多 Agent 系统让它帮你更新 Salesforce 机会、生成 release notes、处理内部审批。第一次跑它磕磕绊绊花了 40 分钟才完成第二次同样的任务它依然从头探索、重复同样的工具调用顺序、踩同样的坑。你明明知道它“聪明”却总觉得它像一个每天第一天上班的新员工——每次都得重新学习流程。我起初以为 Agent 只要有足够强的模型和工具调用就能自主工作后来把 Glean 这篇深度文章拆开才发现行业最大的认知盲区是当前 Agent 普遍是 stateless 的。它们每次任务都像第一次做完全无法把上一次的成功路径、失败教训、组织特有的 workflow 保留下来。真正把 Agent 从“一次性工具”升级成“可 compounding 的企业专家”的不是更强的模型而是Trace Learning——把每一次真实执行的完整轨迹tools used、order、parameters、outcome转化成可复用、可检索、可进化的记忆。Trace Learning 的完整闭环Offline 学习 Online 应用Glean 把整个过程设计成一个严格的反馈循环Offline Learning安全探索从真实部署中采样高价值任务的 traces。用高 reasoning budget 的“Teacher Agent”作为高质量参考。同时跑多个受生产约束的“Student Agent”更紧的 budget、更严格的 tool set。对比打分提取最优策略correctness、efficiency、user feedback。蒸馏成简洁的 natural-language memories不是存整条轨迹而是提炼“什么策略在什么场景下有效”。Online Application运行时应用用户提交 query → 理解目标 → 检索相关 memories → 调整 agent plan → 执行。记忆直接嵌入上下文指导工具调用顺序、参数选择、避免已知失败模式。举个真实例子用户说“Update all my open Salesforce opportunities”Agent 会调用以下 learned memories不要在 MEDDICC 字段为空或只有“TBD”时修改 StageName更新 MEDDIC 字段时先单独写一次再改 StageName长文本字段如 Customer_Narrative__c要 append 新日期段而不是覆盖研究少量 opportunities 时优先用 Glean Search Opportunity filter而不是 SOQL大批量 analytics 时才用 SOQL 并至少带 ARR__c、TechStack__c 等字段。这些记忆全部来自真实执行中的成功/失败模式而不是人工 prompt。传统 Stateless Agent vs Trace Learning Agent 决策矩阵维度传统 Stateless AgentGlean Trace Learning Agent关键权衡与边界条件每次任务行为每次从零探索直接复用历史最优策略重复劳动 vs compounding 智慧失败处理每次重复踩坑自动避开已知 failure patterns试错成本 vs 快速迭代组织特有知识无法保留 workflow 惯例自动积累企业专属 tool strategies通用能力 vs 环境适配记忆形式全量 trajectory易膨胀蒸馏后的 narrow natural-language上下文污染 vs 可信指导企业落地安全性难控制Deployment User 两级 影子执行风险高 vs 治理强适用场景简单一次性任务复杂、重复、企业级 workflow原型验证 vs 生产级自治两个类比帮你瞬间理解 Trace Learning 的工程本质新员工 vs 老员工传统 Agent 像每天第一天入职的新员工——每次都要重新熟悉流程、工具、潜规则。Trace Learning 让 Agent 像工作了 6 个月的老员工——它保留了“在 Glean 里更新 Salesforce 的正确姿势”直接进入高效模式。飞行记录仪 vs 飞行手册传统 Agent 只记录飞行轨迹却不更新手册。Trace Learning 把每一次飞行数据提炼成“在这种天气、这种高度下最优操作序列是什么”让下一次飞行直接参考优化版手册。在生产环境落地 Trace Learning 前必须先做的三件事把当前所有 Agent 执行日志结构化记录下来至少包含 tool calls、order、parameters、outcome、user feedback作为初始 trace 数据源搭建 Teacher/Student 对比机制先在非核心 workflow 上跑一次 offline learning 试点验证蒸馏出的 memories 是否真的能提升成功率设计 deployment-level 和 user-level 两层记忆隔离确保企业级策略共享的同时个人模板和偏好保持私有。当 Agent 真正开始从真实执行中学习之后Glean 这套 Trace Learning 不是在优化单个 prompt而是把 Agent 从“一次性执行者”升级成了“可环境适配、可 compounding 专有智慧”的企业专家。它证明了未来 Agent 的护城河不是模型参数而是它在你的组织里积累了多少真实 workflow 记忆。你的 Agent 现在是 stateless 还是已经在积累 traces 了欢迎在评论区分享你在企业部署 Agent 时最大的痛点是重复探索还是 workflow 不适配试过 trace learning 相关的方案后实际效果如何把你的场景贴出来我们一起把这个 Agent 学习框架迭代得更硬核。本文基于公开 Glean Trace Learning 的设计细节、与 Dynamic Cheatsheet / ACE / ReasoningBank 的对比以及企业级落地思考。我是紫微AI在做一个「人格操作系统ZPF」。后面会持续分享AI Agent和系统实验。感兴趣可以关注我们下期见。

更多文章