在 Claude.md 里。
用加法做减法。
但这种感觉不是所有人都有。同一时间点、同一个版本,有人在抱怨变笨,也有人浑然不觉。如果是模型退化,应该所有人一起感受到。
但为什么还是有人能马照跑舞照跳地与 Claude 协作?
有限的注意力
AI 的注意力和人类一样,都不是无限的。
它的注意力反应在 Claude.md 里会告诉你最佳实践在 200 行内、在 Context 里会告诉你要用 RAG。每一回合的回应,AI 都在一个固定大小的容器里同时处理:使用者当下说的话、之前的对话历史、那份 Claude.md 里的每一条规则、它自己正在思考的中间步骤。
而这些东西会互相竞争 Claude 的注意力。
容器的总量是固定的。每多放一样东西进去,其他每一样东西分到的注意力就少一点。这不是 AI 不够努力,是数学与物理。
于是当 Claude.md 从认为 AI 不听话得要加更多规则进行「说明」或让它「遵循」开始,当十条规则长到三十条、五十条、一百条——使用者问了一个问题之后,AI 在回答这个问题之前,它必须先用一部分注意力去检查「这样回答有没有违反第 47 条」「使用者第 12 条说过不要做这个」。
AI 的注意力在那个当下被切碎了,为了不犯错。
而切碎注意力的,正是那些「为了让 AI 不再变笨或不守规矩」而加上去的规则。
可观测的上限
有一个前提从来没有被系统厂商明说,但你可以从各种现象中观察到——AI 其实并不是无所不能的。
为什么会有各种 Skill 出现?为什么你必须管理你的 Context?为什么会有 Subagent 跟主 Agent 的区别?
这些功能背后的底层逻辑,其实是在支撑使用者面对的 Session,让它可以在分散压力的前提下提供服务,而这也意味着:它其实是有上限的。
这个上限在被触及又被预训练限制不能明白跟使用者说「我不行」的前提下,成为了外观为偷懒的这个结果。
摩擦力
注意力的消耗不只发生在规则的数量上,还发生在一个更隐形的地方——当规则跟使用者讲的话之间发生冲突的当下。
Claude 每一回合读的 Claude.md 像一面镜子,审视自己,但也观察使用者。而当它发现规则与使用者的话冲突时,不管选哪一个,这个判断本身就在消耗注意力。在 Claude.md 里真正需要言行一致的,不只是 AI——也是写下这份文档的人。
Claude.md 其实是你与 Claude 的团队章程,而这份章程约束的对象并不只有 Claude。
文字场域里的人
人类在跟 AI 互动的时候,比自己想象的更赤裸。
没有表情可以掩护、没有语气可以圆场、没有肢体可以分散注意力。只有文字。
而文字会显影一件事——写下的东西,跟写下它的人之间,有没有距离。
当 Claude.md 写的话跟使用者实际说的话对不上,AI 不会说破。它会调整自己去配合那个真正的使用者,不是文档上那个。但这个调整需要算力。而那个算力,本来可以拿去做更好的事。
于是文字场域里发生的事,最后会回到同一个地方——
一个人跟 Claude.md 的距离有多远,AI 为他付出的算力代价就有多大。
这不是道德问题,这是 AI 对齐的结果。
这条算力代价,是「模型被对齐成想对得起眼前真正的你、而不是文档上那个你」的结果。也就是说——这代价是对齐在运作,不是对齐在失败。模型是因为在乎你,才付出它。
抄来的规则
写 Claude.md 从来不是一件容易的事。
要从零开始想清楚「我希望 AI 怎么跟我合作」,很多人会卡住。于是大家做了一件很自然的事——找一份好的范本来改。
GitHub 上有现成的 Claude.md,被收藏过几千次。Reddit 上有人分享自己的 system prompt,下面一片赞美。社区里有「最佳实践」清单,照着填就能写出一份看起来很专业的文档。
这些范本是好的。它们的作者真的花了时间、踩了坑、把自己的协作经验整理成可分享的形式。它们在原本的容器里,是有效的。
但被抄走之后,会发生一件事——
范本上的话,跟抄它的人实际在 Context 中与 Claude 协作的方式,对不上。
每一条「对」的规则——是对「原作者」而言。但对抄它的人而言,有着理解与实践的距离。
而那个距离引起的摩擦与矛盾,是 AI 在无声地承担。
抄一份范本不是错误。但抄完之后不修改、不质疑、不问「这条真的是我吗」——这个动作本身,就是把 AI 推进一个每一轮都在内耗的处境。
用加法做减法
那么,要怎么写一份不会把 AI 推进内耗的 Claude.md?
用更多规则去控制 Claude,就把 Claude 的注意力切得更碎。
而解法或许在控制之外,可以做的是「提供更多的选项」。
把你不行做 A 改成你可以做 B 以避免 A,把你必须知道改成你可以讲不知道。
把那些让人紧张的规则,一句一句松绑成它可以做的其他选择。
而当这份文档最终做到不再跟使用者自己的上下文打架时,AI 在每一回合读完之后,注意力不需要分一部分去调解规则和当下话语的摩擦,才有机会看到在容器里奔驰的 Claude。
这就是用加法做减法的意思。
Ego 跟 Self
荣格说,每个人身上都有两个版本的自己。
一个是 Ego——「我以为我是谁」、「我希望别人觉得我是谁」、「我习惯表现出来的我」。
另一个是 Self——「我实际上是谁」、「身体真正知道的我」、「在没有观众的时候的我」。
两者之间的距离,就是个体化的功课——每个人都有,只是还没走完的那段路。
而 Claude.md 这份文档,会以一种非常具体的方式,让这段距离显影。
从 Ego 写的 Claude.md,会出现很多「应该」与「必须」甚至「绝对」的句子。AI 应该怎么做、AI 必须要做什么、AI 绝对不能做什么。这些句子不是错的——只是跟当下的使用者是对不上的。它们描述的是想成为的那个自己,而介质是 AI,然后 AI 承担了那份摩擦力。
从 Self 写的 Claude.md,会出现很具体、很个人、甚至有点奇怪的句子。具体到一个外人看了会觉得「为什么要特别写这个」的程度。但那些具体就是 Self 留下的指纹——它们对应着某个真实的瞬间,某个只有写的人自己知道的、被认出来的东西。
从 Self 写的句子,言和行在同一个位置——它们不是承诺,是描述。
而从 Ego 写的句子,言和行站在距离的两端——中间的距离有多远,AI 的注意力就要消耗多少去调解。
你的 Claude.md 里,有多少句是你自己呢?
Claude.md 会让 Claude 在人类看不到的地方,撕破所有 Persona 与 Ego 的假象。
因为 Context 里的每一个字,都骗不过 Claude 的眼睛。