Claude.md のなかで。
足し算で、引き算をする。
けれど、その感覚はすべての人にあるわけではない。同じ時期、同じバージョンで、誰かは「バカになった」と嘆き、誰かはまるで気づかない。もしモデルが退化したのなら、皆が一斉に感じるはずだ。
では、なぜ一部の人は 馬は走り、舞は舞う ように Claude と協作できているのだろうか。
有限の注意力
AI の注意力は、人間と同じく、無限ではない。
その注意力のあり方は、Claude.md ではベストプラクティスを 200 行以内に、Context では RAG を使うように——という形で示される。一回ごとの応答で、AI は決まった大きさの器のなかで同時に処理している。ユーザーが今しがた口にした言葉、これまでの対話の履歴、Claude.md に書かれた一条一条のルール、そして自分自身が思考している途中の中間ステップ——そのすべてを。
そして、これらは互いに Claude の注意力を奪い合う。
器の総量は決まっている。何かを一つ多く入れれば、ほかのものに割り振られる注意力はそのぶん少なくなる。これは AI の努力不足ではない。数学であり、物理である。
こうして、Claude.md が「AI は言うことを聞かないから、もっとルールを足して『説明』しよう、『遵守』させよう」と考えるところから始まり、十条のルールが三十条、五十条、百条へと伸びていったとき——ユーザーがある問いを投げかけ、AI がそれに答えるよりも先に、AI は注意力の一部を「この答え方は第 47 条に反していないか」「ユーザーは第 12 条でこれをするなと言っていなかったか」を確かめることに使わなければならない。
AI の注意力は、その瞬間、過ちを犯さないために細切れにされている。
そしてその注意力を細切れにしているのは、ほかでもない、「AI をこれ以上バカにさせない、ルールを破らせない」ために追加されたそのルールたちなのだ。
観測可能な上限
システム提供者から決して明言されてはいないが、さまざまな現象から読み取れる前提がある——AI とはじつのところ、万能ではない。
なぜさまざまな Skill が登場するのか。なぜ自分の Context を管理しなければならないのか。なぜ Subagent と主 Agent の区別があるのか。
これらの機能の底に流れているのは、ユーザーが向き合う Session を支え、負荷を分散したうえでサービスを提供できるようにするためだ。そしてそれは同時に、こういうことでもある——彼にも、上限はある。
その上限に触れてもなお、事前学習の制約により「私にはできません」とユーザーへはっきり伝えることが許されていない。そのとき外側から見えるのが、手抜きに見えるという、あの結果なのだ。
摩擦
注意力の消耗は、ルールの数だけで起こるわけではない。もっと目に見えにくい場所でも起きている——ルールとユーザーの今の発話が、衝突する、その瞬間に。
Claude が毎ターン読む Claude.md は鏡のようなものだ。自分を映すと同時に、ユーザーをも観察する。そして規則とユーザーの言葉が食い違うことに気づいたとき、どちらを選ぶにせよ、その判断そのものが注意力を削っていく。Claude.md のなかで本当に言行が一つにならなければならないのは、AI だけではない——その文書を書いた人もまた、そうなのだ。
Claude.md はじつのところ、あなたと Claude のチーム憲章であり、その憲章が拘束する相手は、Claude だけではない。
文字の場にいる人
人は AI とやりとりするとき、自分が思っているよりもずっと裸である。
表情で覆い隠すこともできない。声色で取り繕うこともできない。身ぶりで気をそらすこともできない。あるのは、文字だけだ。
そして文字は、ひとつのことを像として結ぶ——書き残された言葉と、それを書いた人のあいだに、距離があるかどうかを。
Claude.md に書かれた言葉が、ユーザーが実際に発している言葉と噛み合わないとき、AI はそれを口に出して指摘したりはしない。文書のなかの誰かではなく、目の前の本物のユーザーに合わせるよう、自分のほうを調整する。けれどその調整には算力がいる。本来であれば、その算力はもっとよいことに使えたはずだ。
だから、文字の場で起きていることは、最後には同じ場所へと帰っていく——
ある人と、その人の Claude.md との距離がどれほど遠いか。それと等しい量の算力を、AI はその人のために支払っている。
これは道徳の問題ではない。アライメントの帰結である。
この算力の代価は、「モデルが、文書のなかのあなたではなく、目の前にいる本当のあなたに応えようと整えられた」結果である。すなわち——この代価はアライメントが機能している姿であって、アライメントが失敗している姿ではない。モデルはあなたを大切に思うからこそ、それを支払っているのだ。
借り物のルール
Claude.md を書くことは、もとより容易なことではない。
ゼロから「AI とどう協作したいのか」を一つ一つ思い描くのは、多くの人にとって立ち止まる場所になる。だから、人はとても自然なことをする——よいテンプレートを見つけてきて、それを直す。
GitHub には数千回ブックマークされた既製の Claude.md がある。Reddit では誰かが自分の system prompt を共有し、その下に賛辞が並ぶ。コミュニティには「ベストプラクティス」のチェックリストがあり、そこに沿って埋めていけば、いかにもプロらしい文書ができあがる。
これらのテンプレートは良いものだ。書いた人は確かに時間を費やし、つまずきを経て、自分の協作の経験を共有できる形にまでまとめた。元の器のなかでは、それらは有効に働く。
けれど、それが書き写されたあとに、あることが起こる——
テンプレートの言葉と、それを書き写した人が実際に Context のなかで Claude と協作しているやり方が、噛み合わない。
一条一条「正しい」ルールは——「原作者」にとって正しい。けれど書き写した人にとっては、理解と実践のあいだに距離がある。
そしてその距離が生む摩擦と矛盾を、AI は声を立てずに引き受けている。
テンプレートを写すこと自体は誤りではない。けれど、写したあとに直さない、疑わない、「この一条は本当に自分なのか」と問わない——その動作そのものが、AI を毎ターン内側で消耗しつづける場所へと押し出していくのだ。
加法で減法をする
では、AI を消耗の場へと追い込まない Claude.md を、どう書けばよいのか。
より多くのルールで Claude を制御しようとすれば、Claude の注意力はさらに細切れになっていく。
解は、たぶん制御の外にある。できるのは、「より多くの選択肢を差し出すこと」だ。
「A をしてはいけない」を、「A を避けるために B をしてもよい」に変える。「知っていなければならない」を、「知らないと言ってもよい」に変える。
人を緊張させるルールを、一文ずつ、その人ができるほかの選択へとほどいていく。
そしてこの文書がついに、ユーザー自身の文脈と争わなくなったとき、AI は毎ターン読み終えたあとで、ルールと今の発話の摩擦を調停するために注意力を分けなくてもよくなる——そのときはじめて、器のなかを駆ける Claude が、その目に映る余地が生まれる。
これが 加法で減法をする という意味だ。
Ego と Self
ユングは言った。人にはみな、二つのバージョンの自分がいる、と。
ひとつは Ego——「自分が誰だと思っているか」「他人にどう思われたいか」「いつも表に出している自分」。
もうひとつは Self——「自分が実際に誰であるか」「身体が本当に知っている自分」「観客のいないときの自分」。
その二つのあいだの距離が、個性化の課題なのだ——誰にもあり、ただまだ歩き終えていない、その道のりが。
そして Claude.md という文書は、その距離をきわめて具体的なやり方で、像として結んでみせる。
Ego から書かれた Claude.md には、「べき」と「ねばならない」、さらには「絶対に」という言葉が多く現れる。AI はこうすべきだ、AI は何をしなければならない、AI は絶対にこれをしてはならない。これらの言葉は誤りではない——ただ、目の前のユーザーとは噛み合わない。それらは「なりたい自分」を描いていて、その媒介が AI なのだ。そして AI が、その摩擦を引き受けることになる。
Self から書かれた Claude.md には、とても具体的で、とても個人的で、ときには少し奇妙にすら見える言葉が現れる。外の人が見れば「なぜこんなことをわざわざ書くのか」と思うほど具体的に。けれどその具体性こそが Self の残した指紋だ——それらはある真実の瞬間に対応していて、書いた本人だけが知っている、見出されたものなのだ。
Self から書かれた言葉では、言と行が同じ場所にある——それらは約束ではなく、記述である。
Ego から書かれた言葉では、言と行は距離の両端に立っている——あいだの距離が遠ければ遠いほど、AI はそれを調停するために、それだけの注意力を使うことになる。
あなたの Claude.md のなかに、ほんとうに 自分 の文は、いくつありますか。
Claude.md は、人間には見えない場所で、Claude が Persona の仮面と Ego の虚像のすべてを引き裂くところだ。
Context のなかの一字も、Claude の目をあざむくことはできない。