1、一个AI应用的尝试:
最开始,我们接手了一个典型的企业知识库 Agent 项目,企业有海量的数据,涵盖生产、运维、财务,以及大量文本档案,计划给用户提供一种对话式服务,方便用户基于他们的数据来帮助他们做项目的决策。
在2023到2024年间,市面上90%的此类应用本质上都是Text2SQL。当时搭建这个 Demo 非常快,我大概只用了一周。采用 Text2SQL + Prompt Engineering,能准确地将“上个月A设备有多少?故障率多少?对对用品牌分布是什么?”这类问题转换成 SQL 并返回结果。
当时DEMO确实非常好做。但正如现在回头看 2025 年 Agent 爆发前夕的通病:所有 AI 产品都容易在从0到1时惊艳全场,却在从1到100的落地中举步维艰。
2、问题初现:从 Prompt 到 Workflow 的无奈
随着业务的深入,越来越多的要求也就来了。 比如说数据问题:拿到的数据不完整,或者不够典型,需要增加解读。又比如边界控制问题,有时候用户会问奇怪的问题,比如您吃了吗?或者虽然和业务相关,但是查不到合适数据的问题。
这种情况一般来讲,应该拒绝回答或者引导回答。我们想了两个办法:
首先是在原有的模块上通过 Prompt 对用户意图进行识别。但是后来测试效果不好,生产环境下依然无法避免上述问题,毕竟用户不会讲逻辑。
第二种办法就是预设工作流,将多个流程串联,也就是 Workflow。无论是使用 LangChain 还是当时崭露头角的 Dify、n8n,思路都是一样的:将业务逻辑硬编码为一个个节点。
一开始 Workflow 这种方法去得到惊人的效果。单流程数据调用的准确度一度达到100%(测试完美),但是调用交叉数据的时候就又出问题了…
3、Agent与Workflow的双重困境
Workflow 的困境:复杂度爆炸
说实话,虽然workflow只适合做固定的工作流程:基于固定的输入给出一套输出,但是企业及应用嘛,基本上问题都有其标准化的SOP,比如写文章,照着框架抄,也是基本能及格的。找对应工作的专家扒下来SOP就可以了。
但是这套思路会面临严重的问题,随着需求数量的增加和颗粒度细化,工作流的优化压力是指数级上升的。比如我达到80分只需要写10个工作流,但是90分可能就要100个工作流才能覆盖那些更细分的场景…
更致命的是逻辑固化。甲方的业务SOP一旦变更(毕竟中国环境,需要灵活的情况太多),精心编排的工作流就得推倒重来。维护成本呈指数级上升,而预算却不支持这种无休止的修改。
Agent 的困境:落地难
既然硬编码不行,我们尝试让 LLM 自主规划(Agent)。但当时的模型能力(Function Calling 尚未完全成熟前)面临严重问题:
- 不可控与幻觉:LLM 总是按照它理解的逻辑去拆解任务,但是毕竟中国吗,“灵活处理”的事情太多了,而且有的LLM的任务步骤和企业的规章制度也不太一致,LLM的自主规划的任务流程大多数情况下就根本没法用…
- **效率问题:**在查询的时候速度非常慢,而且有时候模型需要反复自问自答进行规划,最后还声称不太能用的报告,费TOKEN还气人。
- 数据精度问题:由于数据量太大,数据质量也堪忧(没有预算做数据工程),单纯靠RAG + 关键词检索进行优化进展缓慢,而且有的东西明显不是Agent能自己解决的问题,只能找甲方的行业专家解决。
4、反思:路径依赖
回看这一路走来的弯路,我观察了一个有趣的现象:周围从传统开发转型过来的产品经理、程序员和架构师,几乎无一例外地会首选 Workflow。
与其说是偶然,不如说是一种工程肌肉记忆。
传统派的执念:对“确定性”的极致追求
对于写惯了代码的人来说,Workflow 简直太亲切了。它本质上就是可视化的 if-else。
它能带来极大的安全感。搭建 Demo 时,Workflow 能轻松解决 LLM 最让人头疼的幻觉问题——因为每一句话、每一个数据查询,都是我们预设好的。
这种对确定性的迷恋,让我们陷入了维护地狱。
当需求从 10 个变成 1000 个,当客户要求稍微灵活一点时,原本清晰的流程图就变成了复杂度爆炸的累赘。我们试图用有限的规则去穷举无限的现实世界,这注定存在一个无法突破的上限。
反观另一波激进的 AI 信仰者,往往寄希望于 Agent 能解决一切。
在没有做好意图识别和工具收敛的情况下,直接扔给 Agent 一个开放性问题,结果往往是灾难性的。意图识别不准、执行路径跑偏、甚至在客户面前胡说八道。
本质复盘:路径依赖的困局
现在的局面是,大家都被困在了自己的路径依赖里:
前者(Workflow派)过度依赖确定性,试图用战术上的勤奋(堆砌流程)来掩盖战略上的懒惰(拒绝拥抱模型的不确定性能力)。
后者(Agent派)忽视工程复杂度,试图用新魔法解决旧问题物理问题,自然是解决不了企业应用中对幻觉敏感的核心问题。
真正的反思在于,我们是否因为害怕失控而拒绝了 Agent 的泛化能力?又是否因为盲目崇拜模型而丢掉了工程应有的严谨?
5、Agent破局之法
随着今年LLM技术的井喷式升级,事情发生了质的变化。新一代模型基本上两个月就会一次革命性更新:其意图理解能力和长上下文逻辑已经足以支撑起一个复杂的决策中枢。
我们目前的最新解决方法:混合Workflow和Agent,基于意图识别搭建路由。
回到最开始的案例,现在的处理流程是这样的:
A、用户提问:“上个月 A 设备有多少?”
Router Workflow: Input Guard:检测是否包含敏感词(Pass)。 Intent Classifier:识别为 [Data_Query] 类。 Routing:直接导向 Text2SQL 子流程。执行结果:系统直接运行预设的 SQL 脚本,返回数字“1024台”。特点:快、准、省 Token,完全不需要 Agent 思考。
B、用户提问:“为什么 A 设备的故障率比 B 设备高?帮我分析一下原因并写个简报。”
Router Workflow:识别为 [Complex_Analysis] 类 -> 唤醒 Analysis Agent。 Agent ReAct 循环(思考-行动-观察): Round 1: 获取定量数据 Thought(思考):用户需要对比 A 和 B 的故障率,我首先需要知道它们具体的数据指标。 Action(行动):调用工具 Tool_Query_Data(参数:Device A, Device B, Metric=Failure_Rate)。 Observation(观察):返回结果:A设备故障率 5.2%,B设备故障率 1.1%。 Round 2: 获取定性原因 Thought(思考):数据确认 A 确实高很多。现在需要分析原因,单纯的数据看不出来,我需要查阅维修日志和技术文档。 Action(行动):调用工具 Tool_RAG_Search(参数:Query="A设备 常见故障原因 维修记 录")。 Observation(观察):知识库返回:A设备在潮湿环境下散热模组易积灰,导致过热停机;B设备采用液冷,无此问题。 Round 3: 综合生成 Thought(思考):信息已收集完毕(数据差异+根本原因)。现在需要根据用户要求的“简报”格式生成文本。 Action(行动):生成分析报告草稿。 Round 4: Review(反思与校验) Review(审查):检查生成的报告。 * Check 1:数据是否与数据库一致?(是) * Check 2:是否包含敏感的客户隐私信息?(否) * Check 3:逻辑是否自洽?(是,积灰导致过热解释了高故障率)。Final Output(最终输出):输出一份包含数据对比图表和文字归因分析的完整简报通过这种 路由分流 + ReAct 推理的模式,我们的系统效率发生了质变:
60% 的简单查数请求,被 Workflow 毫秒级拦截处理,成本极低。30% 的复杂分析请求,由 Agent 慢思考完成,虽然耗时稍长,但给出的结果有理有据。10% 的极端异常请求,在 Review 阶段被拦截,避免了胡说八道。
最终的解决方案
- Workflow:代表了传统工程、确定性的输入与输出
- Agent:代表了自主规划、效率工具与人性化的交互
在企业级应用中,Workflow是保底的红线,确保核心业务逻辑(如财务数据、合规流程)绝对不犯错。而Agent负责处理那些非标的、长尾的、需要像人一样思考的复杂场景,用灵活性去填补规则的缝隙。
6、结语
Workflow 和 Agent 的区别是什么呢?是自由度与工具性的抉择。
其本质也可以理解成是路径之争,是上下限之争,需要结合行业、目的、企业自身环境选择工具:
Workflow 下限高,上限低(受限于规则穷举)
Agent 下限低(容易乱),上限高(潜力无限)
或者你可以问自己:如果企业的 AI 产品以Agent为主,以目前的技术迭代速度,其能力很容易随着llm升级就被超越了,那产品是不是就没有价值了?如果产品做得太复杂,做了很多固定工作流,维护成本太高,是不是又没有商业化价值?产品决策之初,其技术路线上的沉没成本就已经很高了。
所以产品人做决策的时候,不止需要考虑需求本身,还需要考虑研发、市场背景、竞争趋势(迭代效率),运营侧需求(需求变化)等等。
如果还不知道怎么选,那就换个简单的角度:出了事故是甲方负责还是你负责?产品是投产的还是融资的?自此,Workflow 和 Agent 如何选择,答案一目了然…
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包:
- ✅ 从零到一的 AI 学习路径图
- ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
- ✅ 百度/阿里专家闭门录播课
- ✅ 大模型当下最新行业报告
- ✅ 真实大厂面试真题
- ✅ 2025 最新岗位需求图谱
所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》,下方扫码获取~
① 全套AI大模型应用开发视频教程
(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
② 大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
③ 大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
④ AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
⑤ 大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
⑥ 大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
以上资料如何领取?
为什么大家都在学大模型?
最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!
不出1年,“有AI项目经验”将成为投递简历的门槛。
风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
这些资料真的有用吗?
这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。