为什么 LLM 并不是 Agent 的核心,而只是组件

2026-01-14
来源:
 0. 开篇:一个被普遍接受、但根本错误的共识

“Agent 的智能,主要来自 LLM 本身。”

这种观点认为:只要大模型足够强(参数更大、Context 更长),再配合上一套精妙的 Prompt 工程、挂载几个 Tools,一个具备自主能力的智能 Agent 就会“自然呈现”。
这是一个非常诱人,但非常危险的错觉。
如果你把 LLM 当作 Agent 的“大脑”并把所有控制权交给它,你的系统从架构设计开始起,就已经注定会失败。

1. 为什么 LLM 看起来像 Agent 的“核心”

为什么几乎所有人都容易陷入这个误区?因为 LLM 确实展现出了极具欺骗性的三重表象能力,让人误以为它就是那个“全能管理者”:
语义理解:它能听懂复杂指令,让人误以为它真的“理解”了业务需求。
推理链条:它能列出 Step 1/2/3,让人误以为它具备了“规划”和“拆解”能力。
自然语言输出:它能给出像是经过深思熟虑的结论,让人误以为它在做“决策”。
但是

这些能力本质上是“表达层”的能力,而不是“控制层”的能力。

大模型擅长的是“预测下一个 Token”,它生成的是概率上最合理的文本,而不是逻辑上最严密的行动。它是在模仿推理的过程,而不是在执行因果律的推演。

2. Agent 的真实定义:它解决的到底是什么问题

我们需要回归第一性原理。一个 Agent,本质上是一个在不确定环境中,能够持续感知 → 决策 → 行动 → 校正的系统。
这个定义里有四个 LLM 极其不擅长的关键词:
不确定性:真实世界充满了噪音,而模型喜欢确定的上下文。
长时间跨度:任务可能持续几小时甚至几天,而模型的注意力窗口有限。
状态连续性:Agent 必须记得“上一秒我做了什么,结果如何”,而模型本质是无状态(Stateless)的函数。
行为后果:真实世界的 Action 有副作用(写入数据库、发送邮件),而模型只负责输出文本。
显而易见,没有一个是 LLM 原生擅长的核心能力。LLM 只是在这个闭环中被调用的一个节点,而不是闭环本身。

3. LLM 在 Agent 中真正扮演的角色

在 Agent 架构中,LLM 的真正价值不在于“全权决策”,而在于降低系统复杂度。它应该被定位为以下三种角色之一:
语义接口:将非结构化的自然语言(用户指令),转化为结构化的数据(JSON、函数调用),供系统逻辑处理。
启发式模块:处理那些无法用硬代码写死、长尾且模糊的判断逻辑。
人类意图的压缩器:从纷繁复杂的上下文中提取出关键信息。
他们的共同点只有一个:

LLM在这里承担的是“建议”,而不是“责任”。

控制责任必须属于确定性的代码逻辑,而不是概率性的模型。


4. 那 Agent 的“核心”到底是什么

如果剥离了对 LLM 的盲目崇拜,Agent 的核心到底是什么?
状态建模(State) + 行为约束(Constraints) + 反馈闭环(Feedback)
我们可以用一个极简的三元组来描述真正的 Agent 核心:

State → Policy → Feedback
State(状态):当前环境是什么样?任务进度到了哪里?(这通常存储在数据库或专门的状态对象中,而不是 Prompt 里)。
Policy(策略):基于当前状态,下一步该做什么?(这里可以是 LLM,也可以是规则代码)。
Feedback(反馈):做了之后,环境发生了什么变化?(这是物理世界的真实反馈,不仅仅是文本)。
在这个闭环里,LLM 只是参与者,它甚至是可以被替换的。你可以把 GPT-4 换成 Claude 3,甚至换成一段 Python 的 if-else 代码,只要它能完成“Input -> Output”的转换,Agent 系统依然成立。

5. 一个更正确的 Agent 心智模型

作为架构师,我们需要重新构建 Agent 的分层架构。一个健壮的 Agent 系统应该是这样的:









Environment (真实环境/API/数据库)   ↓State Representation (状态表征层:负责维护由变量定义的清晰状态)   ↓Planner / Policy (规划决策层:LLM 可以在此,但受限于预定义的动作空间)   ↓Executor (执行层:确定性的代码,负责副作用)   ↓Feedback & Correction (校验层:检查执行结果,更新状态)
在这个模型中,LLM 变成了系统中的一种**算子**。它可以出现在感知层做总结,可以出现在决策层做建议,可以出现在反馈层做评估。

LLM 可以出现在多个层,但不应该统治任何一层。


6. 结语:当你把 LLM 放回组件位置,很多问题反而消失了

当我们停止把 LLM 当作 Agent 的核心,而仅仅把它当作一个具备常识推理能力的各种组件时,你会发现原本很多棘手的问题变得清晰了。
你不再纠结于 Prompt 为什么偶尔失效,而是去检查状态机的流转逻辑。
你不再担心 Token 费用爆炸,因为你只在需要的关键节点调用 LLM。
你也无需恐惧幻觉, 因为相信代码逻辑,而不是生成的逻辑。

真正成熟的 Agent 系统,从来不是“模型驱动的智能”,而是系统约束下的智能行为


分享
下一篇:这是最后一篇
上一篇:这是第一篇
写评论...