不可逆の変化─AIがコードを書く時代 (2026)
+
ちょうど1年前、私は「不可逆の変化─AIがコードを書く時代」という同名の記事を書きました。
そこで私は、AIがコードを書く時代の到来における「開発者体験(DX)の価値低下」や、人間が担うべき「責任のシフト」について、どこか予言めいたことを書いていました。
あれから1年。未来は、私の想像を遥かに超える速度と、ある種の暴力性を持って現実になってしまいました。
2025年という「断層」
振り返ってみれば、その変化は「徐々に」訪れたのではありませんでした。それは明確な「断層」だったように思います。
2024年の12月を思い出してみてください。あの頃、カンファレンスで会場に問いかけました。「Cline知ってる人いますか?」「DeepSeek知っている人いますか?」──誰も手があがりませんでした。
けれど、年が明けた2025年1月。DeepSeekショックが世界を駆け巡り、トランプ大統領さえその名を口にしました。 やがて、Clineが流行り、CursorやClaude Code等のAIコーディングエージェントが現場を席巻し始めました。
2024年、Sonnet 3.5が「AIはコードが書ける」という可能性を示し、翌年にはOpus 4.5がClaude Codeで「AIはエージェントとして自律的に仕事をこなせる」という信頼性を証明してしまいました。それは単なるツールの登場ではなかった。マクルーハンが「メディアはメッセージである」と言ったように、AIエージェントという媒体の出現そのものが、「人間がコードを書く時代は終わる」というメッセージでした。
かつて懐疑的だったDHH(David Heinemeier Hansson)氏でさえ、その姿勢を変えました。1それほどの衝撃と有効性がありました。それは、Web開発の歴史において、私たちが「後戻りできない地点」を越えてしまったことを告げる鐘の音だったのだと思います。
無限のDoing、不在のBeing
今となっては、人間が1行1行コードを手書きする行為は、実用を超えたある種の儀式──印刷技術がある時代に手で経典を写す「デジタル・モンク(僧侶)」の修行のようなものになりつつあるのではないでしょうか。 AIによる「無限のコード供給」。それが新しい当たり前になりました。
AIは「Doing(振る舞い・処理)」を生成する達人です。放っておけば、彼らは無限にメソッドを生み出し、延々とコミットを積み上げます。 では、その無限に生み出されるコードを、私たちはどうやって信頼すればいいのでしょうか。
従来、テストは人間がコードを理解しているからこそ意味がありました。書いた本人がロジックを把握し、境界条件を知り、意図を込めてテストを書く。その前提があったからこそ、テストは「信頼の証」として機能していたのです。では、AIが書いたコードに対するAIのテストに、同じ信頼を置けるのでしょうか。
私はいくつかの実験を行いました。その一つがext-json-schemaというJSON Schemaの検証ツールです。このツールは、私の設計なしに、私の理解なしに、AIによって作られました。しかしJSON Schemaという厳密な仕様に対する何千ものバリデーションテストにすべてパスし、メモリリーク検出ツールもパスしています。考えてみてください。もしすべてのメモリリークが検出でき、コードに矛盾がないと証明できれば、私たちはコードを理解せずに出荷できるのでしょうか? あるいは逆に問うなら──ジュニアレベルの開発者は、これらのツールよりも精度の高いレビューができているのでしょうか? AIが高品質なコードを無限に生成する時代に、人はどこまで有効なレビュアーで居られるのでしょうか。
また、ここにはトートロジーの罠も潜んでいます。AIがコードを無限に生成できるように、テストも無限に生成してカバレッジを高めることはできます。けれど、もしAIがコードの意図を誤解し、その誤解のもとにテストを書いていたら? それは「間違いを間違いのまま正しいと証明している」ことになってしまいます。コードとテストが同じ誤解を共有する閉じた円環──それがトートロジー(同語反復)の問題です。『AIのコードにAIが承認を出す時代』──が”もし”来るとしたら、私たちはインテントとアウトカム(意図と結果)を検証可能な形で示す必要があります。
コードもテストもレビューも──すべてがDoing(振る舞い)の連鎖です。しかしそこには「何であるべきか」というBeing(存在定義)が不在のままです。
DXからAXへ
1年前の記事で、私はDX(Developer Experience)の相対的な価値が下がると書きました。人間がコードを書かない時代に、人間にとっての「書きやすさ」を追求するDXの価値追求にどんな意味があるのでしょうか。
代わりに重要になるのは、AX(Agent Experience)──AIエージェントにとって、いかに検証可能(Verifiable)な環境であるかということです。トートロジーの円環を断ち切るのは、AIの外部に存在する、機械的に検証可能な制約です。Intent(意図)とOutcome(出力)の整合性をAIが自律的に検証できる構造が必要です。
仕様書の自然言語はその出発点になっても、振る舞い(DOING)の指示のすべてにはなりえません。OpenAPIやGraphQL、JSON Schemaのような構造化された仕様はその一歩です。しかし、入出力だけを検証できればいいのでしょうか? コード実行の過程や意図を含めてAIが自律的に検証できる仕組みも必要であるなら、人間の仕事は「コードを書くこと」から「AIが検証できる制約を設計、記述すること」へと移っていくでしょう。
1年前、私は記事をこう結びました──「私たちの仕事がコード作成を超えた、本質的な『ソフトウェアの未来をデザインする』仕事へと繋がっていけばいい」と。あの時「今年ではないかもしれない」と言っていた未来は、それからすぐに津波のように訪れました。そして、しばらく踠いて、そしてその波が引いた後に『全てを手で打ち込む時代が終わった寂しさ』をもっと感じるのでしょう。