AI 的问题,越来越不像“模型问题”,而更像“判断秩序问题”。
Mature AI use is not model-first. It is judgment-first. You do not begin by asking which model is strongest. You begin by deciding what problem matters, what boundary cannot move, how judgment will be checked, and how tools should be used.
我之所以一直追着这个题,是因为我见过太多次。人先把模型抬上桌,再把判断留在桌下。结果看起来更快,实际上更乱。
真正成熟的 AI 使用,不是先问模型有多强,而是先把经、法、术、器排稳。经定方向,法定判断,术定流程,器才负责放大。
A few weeks ago, at a leadership offsite, I joked that Laozi had already explained how to use AI 2,000 years ago. The joke was only half a joke.
The point is not that the classics predicted large language models. The point is that they still describe how to operate high-leverage tools without giving away your own judgment.
这篇文章本身也按同一套逻辑来写。先定经,也就是问题和边界。再定法,也就是判断方式。然后才是术和器,分别对应流程和工具。不是先堆材料,再找结论,而是先把结构排稳,再让内容落位。
经:先定方向,再谈效率 / Principle: set direction before efficiency
经是总纲。
它先回答三件事。我们到底要做什么。哪些边界不能动。什么才算真的成功。
如果这层不稳,下面就会慢慢漂。快会增加,混乱也会增加。
快,不等于赢。可用,不等于可托付。输出,不等于能力。能生成,不等于该采用。
这就是我想先翻过来的地方。AI 不是一个“把问题丢过去,等答案回来”的东西。它应当被放进清楚的目的、清楚的边界、清楚的判断标准里。
Principle decides what problem is worth solving. It sets the boundary, the risk tolerance, and the standard of success. If principle is weak, AI does not make the system wiser. It only makes confusion move faster.
法:把判断变成可检验结构 / Method: make judgment testable
如果经回答的是“我们为什么做”,法回答的就是“我们凭什么这样判断”。
很多 AI 使用卡在这里。模型说得很顺,人就误以为推理也顺。未必。
没有法,流畅会伪装成成熟。
所以法层最重要的,不是把话说得更像专业人士,而是把判断变得可检验。把事实、推断、未知分开。保留验证路径。把冲突摆出来,不要急着抹平。让别人能沿着同一条线检查。
This is the layer that makes judgment inspectable. It turns a convincing answer into a traceable one. It also tells you where the system is still guessing.
术:让判断落地 / Workflow: make judgment executable
术常常被误解成技巧。
其实它更像执行纪律。判断如果不经过术,就很容易停在纸面上,或者在执行时变成噪音。
先拆任务,再配模型。不要先有模型,再强迫任务去适应模型。
这句话很短,但它压着很多东西。任务分型先于模型选择。能力预检先于委派。路由、回收条件、边界,往往比一个聪明 prompt 更重要。
我自己越做越确定一件事。好的 workflow 不是更聪明的聊天框,而是一个分层系统。它让正确动作更容易发生,也让错误更容易被看见。
Workflow is where judgment becomes repeatable. It is not a prettier conversation layer. It is the operating sequence that makes the right action easier to take and the wrong action easier to catch.
器:工具只会放大上层结构 / Tools: amplify, do not decide
器是最显眼的一层。模型、搜索、文件、shell、memory、工作流工具,都属于器。
它们都重要,但没有一个能单独决定方向。
模型能力是变量,结构能力才是资产。
这才是更深的一层意思。更强的模型当然能帮忙,但如果经、法、术不稳,更强的模型往往只会产出更精致的模糊。反过来,结构站稳了,较简单的模型也能在纪律里做事。
Tools amplify structure. They do not create judgment. If the structure is weak, a stronger model just produces more polished ambiguity. If the structure is sound, even a simpler model can work inside a disciplined system.
孙子兵法:外部秩序 / Sun Tzu: external order
如果让我选一本最适合解释 AI 外部逻辑的经典,我会选《孙子兵法》。
它不是在讲战争姿态,而是在讲局势、配置、约束和时机。
兵者,国之大事,不可不察。
放到 AI 里,这意味着高杠杆工具不能随手用。你把它接进核心流程之前,先要知道它会改写什么。责任怎么变,验证怎么变,失败成本怎么变,判断链条怎么变。
知彼知己,百战不殆。
这在这里也成立。你要知道模型的边界,也要知道自己的真实优化目标。速度、成本、信任、可逆性,不是同一件事。
求之于势,不责于人。
这句最适合连接古典和系统设计。好的系统,是让正确动作更容易重复,而不是每次都赌一个会写 prompt 的人刚好在线。
Sun Tzu is the language of external order. It tells you to read the situation, map the constraints, and shape the conditions before you act. In AI terms, that means treating every high-leverage tool as something that can rewrite responsibility, validation, and failure cost, not just output speed.
道德经:内部节制 / Dao De Jing: internal restraint
如果《孙子兵法》给我们的是外部秩序,《道德经》给我们的,就是内部节制。
为无为,则无不治。
这不是不作为,而是少做那些会把系统弄乱的多余动作。放到实践里,就是更少的任意干预,更清楚的默认设置,更少的中途翻动。
治大国若烹小鲜。
这就是有边界的委派。前面说清楚,运行中少搅动,最后再整体判断。不是甩手,而是不乱动。
知人者智,自知者明。
这一句最难外包。AI 不该替代自知,而该暴露盲点,挑战 framing,让人更难躲开自己的假设。
Dao De Jing is the language of internal restraint. It is about not over-controlling the system into instability. In practice, that means clearer defaults, fewer arbitrary interventions, bounded delegation, and a system that helps you see your own blind spots instead of hiding them.
这对 AI 实操意味着什么 / What this means in practice
把前面收成几条,就会很实用。
- 先定目的、边界、成功标准。
- 再把事实、推断、未知分开。
- 先拆任务,再选模型。
- 按风险和判断密度路由工作。
- 用工具放大结构,不用工具替代结构。
The operating rule set is simple: principle first, method second, workflow third, tools last. That sequence keeps the system legible when the model changes. It also keeps the work from becoming dependent on one particularly good prompt or one particularly lucky session.
这也是为什么前面那套 presentation 里的证明点还值得带进来。分层 harness、deep research、有边界的委派,不是三套散的想法。它们其实是在说明经、法、术如何进入器。
That is also why the previous harness essay still matters. It is a bridge, not the destination. That essay says the harness matters. This one says why the harness matters, and what has to be stable before the harness can do its job.
结尾 / Closing
古典不是包装,是操作逻辑。
If 《孙子兵法》教我们怎样在局势里取胜,《道德经》教我们怎样不把局势管坏,那么 AI 逼着我们把这两件事放在一起。既要会造势,也要会收手。既要会放大,也要会节制。
不要把判断外包给模型。要让模型帮助我们把判断练成系统。
The model matters. But the judgment system matters more.