
构建 AI Agent 时,许多团队常因盲目追求多 Agent 编排与复杂理而陷入“过度设计”的泥潭柳州万能胶厂,致基础任务都法稳定交付;针对这行业通病,Ashpreet Bedi 提出的五层渐进式架构提供了条务实路径:从赋予 LLM 基础工具的状态起点出发,按需依次叠加记忆知识、自主学习、多角协作及生产基础设施,强调仅在上层明确失时才引入新复杂度,这种“从简单开始、逐步验证”的工程思维,不仅能有降低调试成本,是造真正可靠、可演进 AI 系统的关键所在。
你有没有发现,很多团队在构建 AI agent 时都在犯同个错误?他们上来就搞多 agent 编排、自主理循环、复杂的基础设施,然后花几周时间调试为什么简单的任务都法完成。这种过度设计的问题在整个行业里普遍存在,致大量项目半途而废。近我读到 Ashpreet Bedi 分享的篇文章,他提出了个让我有感触的观点:构建 AI agent 应该遵循个简单得有些”丢人”的原则——从简单的开始,逐步增加能力,在每步都验证行为。这个理念看似平淡奇,却道出了软件工程的本质。
我在实际工作中也经常看到这种现象。团队急于展示技术实力,想要步到位构建出复杂的 AI 系统,结果却陷入了休止的调试和重构。反而是那些从小可行产品开始,步步迭代的团队,终交付了真正可用的产品。Ashpreet Bedi 在文章中系统地总结了构建 agentic software(agent 化软件)的五个架构层:带工具的 agent、带存储和知识的 agent、带记忆和学习的 agent、多 agent 团队,以及生产系统。他通过构建个名为 Gcode 的轻量编程 agent 来演示每个层,这种循序渐进的法论对我启发很大。
为什么大多数团队开始就错了在入探讨这五个层之前,我想先谈谈为什么这个渐进式的法如此重要。我观察到个有趣的现象:在 AI agent 域,技术门槛的降低反而致了多的过度设计。因为大语言模型让构建 agent 看起来很容易,很多团队误以为只要堆砌足够多的,就能得到个强大的系统。这种想法从根本上就是错误的。
软件工程有个经典原则:提前优化是万恶之源。在 AI agent 开发中,这个原则同样适用。过早地引入复杂架构,不仅增加了开发和维护成本,重要的是,它会掩盖真正的问题所在。当你的 agent 法完成任务时,你很难判断是架构设计的问题,还是提示词的问题,还是工具选择的问题。而如果你从简单的版本开始,每次只添加个能力,那么问题定位就会容易得多。
Ashpreet Bedi 的五层架构正是基于这种递进式的思维。每层都解决了上层明确存在的问题,而不是预先设想可能出现的问题。这种务实的态度在快速变化的 AI 域尤其重要。技术在快速演进,今天看起来要的复杂架构,可能明天就被简单的案取代了。保持架构的灵活和可演进,远比开始就追求重要。
Level 1:给 Agent 装上手脚层的核心理念非常直接:没有工具的 agent 只是个大语言模型。它能理,但做不了任何实际的事情。Tools(工具)是将 LLM 转变为 agent 的关键。Ashpreet Bedi 在构建编程 agent Gcode 时,定义了小可行工具集:读取文件、写入文件、运行 shell 命令。这三个工具构成了个编程 agent 的基础能力。
我特别认同这个小化的起点。很多人在设计 agent 时柳州万能胶厂,会口气给它配备十几种甚至几十种工具,认为工具越多能力越强。但实际情况往往相反。工具太多会致 agent 在选择时犯错,它可能会用错误的工具,或者在多个相似工具之间摇摆不定。从认知负荷的角度看,这就像让个人同时学习二十种乐器,结果可能是种都学不好。
在层,agent 接收任务,使用 CodingTools(编程工具集)来编写、编辑和运行代码。这个过程是状态的,每次运行都从开始。Agent 法回忆之前的会话,法遵循项目约定,除非你把这些信息粘贴到提示词中。这听起来很受限,但这恰恰是它的优势所在。限制迫使你注于核心:agent 能否完成基本的任务?工具的抽象是否理?提示词是否清晰?
我在实际项目中发现,很多看似需要复杂架构的问题,其实用层的简单 agent 就能解决。关键在于明确定义任务边界。如果你的任务确实简单且自包含,那么个状态的 agent 配几个精心选择的工具,可以胜任。不要因为技术上”可以”做得复杂,就真的去做。
Level 2:赋予 Agent 记忆和知识层的大问题是什么?每次运行都要重新开始,所有东西都须放在上下文中。这在处理简单任务时还能接受,但当你需要多轮对话、需要遵循特定规范、需要访问大量背景信息时,这种状态的式就不够用了。二层通过两个关键添加解决了这个问题:session storage(会话存储)和 domain knowledge(域知识)。
Storage 的价值在于它保存了每个 agent 会话及其中的每次运行到数据库中。这带来两个重要好处。是可以将聊天历史作为上下文,agent 能够包含近的 N 条消息在其上下文窗口中,知道正在发生什么。对于长的会话,你可以运行压缩法来总结早期上下文,保持窗口注于当前重要的内容。二是创建了完整的行为记录。不是所有东西都需要发送给三追踪服务,把会话存在自己的数据库里是理解 agent 做了什么、何时做的、为什么做的简单式。你拥有数据,可以查询它、审计它、在上面构建仪表板。
Knowledge 的引入则解决了另个关键问题。今天的编程 agent 只能看到代码库中的文件,别的什么都看不到。它们法访问你的架构规范、团队的设计决策、内部会议记录,或者某个 Slack 讨论串里解释为什么选择 Postgres 而不是 DynamoDB 的内容。这就是 knowledge 要解决的问题。它给 agent 提供了个可搜索的存储库,里面是所有对项目重要但不需要直待在上下文窗口中的内容:规范、RFP、运维手册、架构决策记录、会议笔记、团队对话。
这里有个关键洞察:大量有价值的上下文存在于代码库之外。如果你的团队上个月在会议中讨论了迁移策略,那么当编程 agent 处理迁移工作时,这个上下文应该是可用的。如果半年前有人决定使用库 X 而不是库 Y,agent 应该能够在它准备删掉 X 重新开始之前找到这个决策的理由。我在实际工作中刻体会到这点。很多技术决策的背景信息散落在邮件、文档、聊天记录中,新加入的团队成员很难获取,结果常常重复犯同样的错误或者翻之前思熟虑的决策。
Ashpreet Bedi 在实现中使用了 ChromaDb 作为向量数据库,支持混搜索(hybrid search),既能进行语义匹配也能进行关键词匹配。这种设计很聪明,因为不同类型的查询需要不同的搜索策略。有时你需要精确匹配某个术语,有时你需要理解语义相似。Agent 在编码前会先搜索 knowledge,如果你的风格指南说”使用 snake_case”,agent 会找到并遵循它。这就是基础的 Agentic RAG(检索增强生成)。
什么时候应该使用二层?当 agent 需要遵循它训练时没见过的标准,或者当用户期望多轮对话时。这是大多数内部工具的佳选择。我认为很多企业应用其实停留在这层就足够了,不需要复杂的。关键是要清楚地识别你的实际需求柳州万能胶厂,而不是被新技术的光环所迷惑。
Level 3:Agent 开始学习和进化从二层到三层的跳跃是重要的次飞跃。在二层,agent 遵循你给它的规则。在三层,它从经验中学习规则。这个区别看似微妙,实则根本。Ashpreet Bedi 提出了个简洁有力的标准: 1000 次交互应该比 1 次交互好。这就是学习的本质。
三层引入了 Learning Machine(学习机器)。Agent 获得了 save_learning 和 search_learnings 两个工具,它自己决定什么值得记住:有的编程模式、要避的错误、用户偏好。这些学习成果被存储在个立的 knowledge base(知识库)中,并在未来的会话中被调用。同时,agentic memory(agent 记忆)让 agent 能够随时间构建用户画像:你偏好的编程风格、你使用的框架、你喜欢的解释式。
我觉得这层的设计哲学特别有意思。它不是简单地记录所有交互历史,泡沫板橡塑板专用胶而是让 agent 自主判断什么值得学习。这种选择记忆接近人类的学习式。我们不会记住每个细节,而是提取出模式、原则和偏好。这种抽象能力让 agent 能够将经验泛化到新的情境中,而不只是死记硬背。
Ashpreet Bedi 给出了个”两次会话测试”的例子。在次会话中,用户表达了对函数式编程风格的偏好——不用类,使用纯函数和不可变数据。在二次会话中,当用户要求编写日志解析器时,agent 应该搜索它的学习记录,找到函数式编程偏好,并写出函数式代码。这个测试很好地展示了学习的价值:agent 不需要每次都重新告知偏好,它能够记住并应用。
什么时候应该使用三层?当 agent 反复服务同批用户,并且应该随时间改进时。个人编程助手、具有共享学习的团队工具、任何”按我们喜欢的式做”很重要的场景。我认为这是 AI agent 真正开始展现价值的层。前两层多是率工具,而三层开始具备了个化和适应能力,这让它从工具变成了助手。
我在思考这层时想到个问题:agent 的学习应该有边界吗?它应该学习所有用户偏好,还是只学习某些类型的偏好?如果用户的偏好本身是错误的或低的,agent 应该盲目遵循还是提出质疑?这些问题没有简单答案,但它们指向了个层的设计哲学:我们希望 agent 扮演什么角——服从的执行者,还是能够提供建议的顾问?
Level 4:多 Agent 协作的承诺与陷阱有时候个 agent 确实不够。四层将职责分散到由团队协调的业化 agent 之间。Ashpreet Bedi 的示例很直观:Coder 负责编写代码柳州万能胶厂,Reviewer 负责审查质量、bug 和佳实践,Tester 负责编写和运行测试。每个 agent 都有明确的角和工具权限。注意 Reviewer 的工具配置:禁用了写文件、编辑文件和运行 shell 的能力,只能读取。这种权限控制确保了 agent 只做它应该做的事。
多 agent 团队在概念上很吸引人。它模仿了人类团队的工作式,每个成员有长,通过协作完成复杂任务。在代码审查场景中,这种分工特别自然:个人写,另个人审,三个人测试。但 Ashpreet Bedi 在这里给出了个非常诚实的警告:多 agent 团队强大但不可预测。团队是个 LLM,在做委派决策。有时它委派得很好,有时不行。对于需要可靠的生产系统,显式工作流优于动态团队。团队在有人类监督的场景中表现好,人类可以审查输出。
这个警告很重要,因为它道出了多 agent 系统的核心问题:控制的丧失。当你把决策权交给个 LLM 协调者时,你就失去了对执行路径的精确控制。在演示中,这种动态看起来很酷,像是 AI 的”智能涌现”。但在生产环境中,不可预测是可靠的大敌。我认为这是当前多 agent 系统大的局限所在。
什么时候应该使用四层?当你需要多个视角时(代码审查是例子),当任务自然分解为角时,或者当你构建交互式工具、人类可以监督团队时。我的观点加保守:除非你有非常明确的理由,否则优先考虑单个设计良好的 agent。多 agent 系统的复杂成本很,只有在收益明显大于成本时才值得付出。
我想补充点我的观察。在很多宣传多 agent 架构的案例中,真正带来价值的往往不是”多个 agent”,而是”明确的职责分工”和”结构化的工作流程”。这些好处在单 agent 架构中同样可以实现,只是式不同。与其让多个 agent 动态协作,不如让个 agent 按照明确定义的步骤工作,每个步骤使用不同的工具或提示词配置。这种法在可控和可调试上都胜筹。
奥力斯 保温护角专用胶批发 联系人:王经理 手机:13903175735(微信同号) 地址:河北省任丘市北辛庄乡南代河工业区
Level 5:走向生产环境的后公里五层是将前四层转变为生产服务的运行时环境。你需要从开发数据库升到生产数据库,添加追踪,并将所有内容作为 API 暴露出来。Ashpreet Bedi 在这里的做法很务实:用 PostgreSQL 和 PgVector 替换 SQLite 和 ChromaDb,获得真正的连接池、真正的备份、真正的并发访问能力。
AgentOS 的概念很有意思。它将你的 agent 包装在个 FastAPI 应用中,提供内置的 Web UI、会话管理和追踪。这种”开箱即用”的法大大降低了将 agent 投入生产的门槛。你不需要自己搭建整套基础设施,只需配置好 agent,AgentOS 就能帮你处理其余部分。启用追踪(tracing=True)让你能够观察每个工具调用、每次知识搜索、每个委派决策,这对于调试生产问题至关重要。
什么时候应该使用五层?当 agent 离开你的笔记本电脑时。多用户、正常运行时间要求、需要调试生产问题的场景。我认为这层的重要常被低估。很多团队在开发环境中做出了很棒的 agent,但在生产化时遇到了各种问题:能、可扩展、可观测、安全。提前规划这些非需求,比后期补丁要容易得多。
我想强调个常被忽视的点:生产环境的 agent 需要运维。它不是部署后就能劳永逸的。你需要监控它的表现、收集用户反馈、定期新知识库、调整提示词、处理边缘情况。这需要投入持续的人力和时间。所以在决定构建生产 agent 之前,确保你有资源来维护它。
重要的建议:从简单开始读完 Ashpreet Bedi 的文章,我大的收获是这条建议:从层开始。构建能够解决问题的简单 agent。运行它,看它在哪里失败,然后只添加它缺失的那个能力。这听起来很简单,但在实践中很难做到。我们总是被新技术、新架构的诱惑所吸引,想要次构建出的系统。
大多数团队直接跳到四层,因为多 agent 架构在演示中看起来很酷。然后他们花几个月时间调试协调失败的问题,而这些问题个设计良好的单 agent 加上好的指令就能避。这种过度设计的诱惑在技术行业很普遍,但在 AI agent 域尤其危险,因为调试成本特别。
把这五个层想象成能力和复杂的层次结构。记住,每层都增加了复杂,而复杂是有成本的。只在简单的法明确失败后才付出这个成本。这种纪律的法不仅能让你快地交付可用的产品,还能让你入地理解每个能力的价值和代价。
我的个人观点是,这种渐进式法的价值不仅在于技术层面,在于认知层面。当你从简单开始时,你被迫真正理解问题的本质。你不能用复杂架构来掩盖对问题的模糊认识。你须清楚地定义:这个 agent 要解决什么问题?它需要什么能力?如何验证它是否成功?这些基础问题的答案,比任何花哨的架构都重要。
在快速变化的 AI 域,保持架构的简单和灵活比追求有价值。今天看起来要的复杂,明天可能就被简单的案取代了。与其构建个复杂但脆弱的系统,不如构建个简单但可演进的系统。这种思维式不仅适用于 AI agent,也适用于所有软件开发。
后我想说,Ashpreet Bedi 提供的这个框架不是教条,而是指南。你可能会发现你的场景需要不同的层划分,或者需要跳过某些层。关键是理解每个能力的作用和代价,然后根据你的具体需求做出明智的选择。盲目遵循任何框架都是危险的,但忽视前人的经验也同样危险。在两者之间找到平衡,才是优秀工程师的特质。
本文由人人都是产品经理作者【思圈】,微信公众号:【思圈】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。
题图来自Unsplash,基于 CC0 协议。
相关词条:不锈钢保温 塑料管材设备 预应力钢绞线 玻璃棉板厂家 pvc管道管件胶1.本网站以及本平台支持关于《新广告法》实施的“极限词“用语属“违词”的规定柳州万能胶厂,并在网站的各个栏目、产品主图、详情页等描述中规避“违禁词”。
2.本店欢迎所有用户指出有“违禁词”“广告法”出现的地方,并积极配合修改。
3.凡用户访问本网页,均表示默认详情页的描述,不支持任何以极限化“违禁词”“广告法”为借口理由投诉违反《新广告法》,以此来变相勒索商家索要赔偿的违法恶意行为。
