2026年2月上旬、イーロン・マスク氏は登壇中のスピーチで「Code itself will go away in favor of just making the binary directly(コード自体は、バイナリを直接作るために消える)」と語った。
ソフトウェアは本来、読めるソースコードと実行されるバイナリの二層で成り立つ。前者は意図を共有し、後者は機械が動く。
LLMは強いが、ラストワンマイルの壁が存在
OpenAIはGPT-5.2やCodex向けモデルで自律的な開発支援を狙い、Google DeepMindもGemini 3で「agentic workflows(エージェンティック・ワークフロー)」、AIが単なる「物知りなチャットボット」から「自ら判断して動く代理人(エージェント)」へ進化したということを掲げている。
しかし現状は、生成はできるが、修正・改善・責任を持って扱うことはまだ難しいといわれている。
SWE-benchというAIが「本物のプロデューサーやエンジニアのように、実際のソフトウェア開発ができるか」を測定するための、世界で最も権威のある試験でも、正答率は大幅に向上したものの、複雑なリポジトリを跨ぐ論理矛盾を解消しきれていない。
加えてOpenAI自身が示す通り、ハルシネーション(自信ありげな誤り)は“完全には解き切れない”課題として残る。
現実的に起きそうなのは、「人間の言葉から、いきなり機械語へ飛ぶ」という世界ではない。その間には中間の翻訳ステップが入る可能性が高い。
現在のコンピュータの世界では、人間が読むコードと、コンピュータが直接実行する命令のあいだに、「中間の設計図」のようなものが存在している。これは、人間の意図を機械に正確に伝えるための共通フォーマットとして機能する。
実際、Google DeepMindが開発したAI「AlphaDev」は、人間がこれまで「絶対に必要だ」と思い込んでいたステップを省略しても、正しく、かつ高速に動作する手順を発見。人間が何十年も使ってきた基本的なプログラムの一部を、より速く動く形に改良した。
そしてその成果は、実際の標準ソフトウェアに採用されている。つまり、AIが人間よりも効率的な“内部構造”を設計する時代は、すでに始まっている。
透明性という課題
しかし、ここに大きな問題がある。もし最終的な「機械語」だけが存在し、その途中の設計図がみえなくなったらどうなるか。私たちはその仕組みを検証できなくなってしまう。
本当に安全なのか、改ざんされていないのか、誰が作ったのか――それを確認するのが難しくなる。
だから今、技術業界ではこのソフトはどこで、どのように作られたのかを証明する仕組みづくりが進んでいる。簡単にいえば、“食品の産地表示”のようなものだ。
AIがコードを書かなくなる未来が来たとしても、「信頼をどう証明するか」という問題はむしろ重くなる。コードがみえなくなるほど、その裏側の透明性は、より厳しく求められるということだ。