<h2>1兆パラメータの巨獣、登場</h2><p>DeepSeek V4が公開された。パラメータ数は1兆。Mixture-of-Experts(MoE)アーキテクチャを採用し、推論時のアクティブパラメータは約320億に抑えられている。巨大でありながら、効率的。この二律背反を成立させた点に、まず目を向ける必要がある。</p><table border="1" cellpadding="8" cellspacing="0" style="border-collapse: collapse; width: 100%; margin: 16px 0;"><thead><tr style="background-color: #f3f4f6;"><th>項目</th><th>DeepSeek V4</th><th>参考: DeepSeek R1</th></tr></thead><tbody><tr><td>総パラメータ数</td><td>1兆</td><td>非公開(推定6,710億)</td></tr><tr><td>アクティブパラメータ</td><td>約320億</td><td>約370億</td></tr><tr><td>アーキテクチャ</td><td>MoE</td><td>MoE</td></tr><tr><td>モダリティ</td><td>テキスト・画像・動画・音声</td><td>テキスト中心</td></tr><tr><td>コンテキスト長</td><td>100万トークン以上</td><td>12.8万トークン</td></tr><tr><td>ライセンス</td><td>オープンソース</td><td>オープンソース</td></tr></tbody></table><p>2026年1月、DeepSeek R1がオープンソースの推論モデルとして業界を揺るがした。その記憶がまだ鮮明なうちに、後継モデルが現れた形だ。</p><h2>[Nvidia](/tag/nvidia)なしで、ここまで来た</h2><p>DeepSeek V4の技術的意義は、スペックの大きさだけにはない。訓練と推論の基盤に、Huawei AscendチップとCambriconチップが使われている点が核心だ。</p><p>米国はNvidia製GPUの対中輸出規制を段階的に強化してきた。H100、そしてその代替として設計されたH20も規制対象となり、中国企業がフロンティアAIを構築する道は塞がれたはずだった。DeepSeek V4は、その前提を覆す。</p><table border="1" cellpadding="8" cellspacing="0" style="border-collapse: collapse; width: 100%; margin: 16px 0;"><thead><tr style="background-color: #f3f4f6;"><th>チップ</th><th>開発元</th><th>主な用途</th></tr></thead><tbody><tr><td>Huawei Ascend 910C</td><td>Huawei(中国)</td><td>AI訓練・推論</td></tr><tr><td>Cambricon MLU370/MLU590</td><td>Cambricon(中国)</td><td>AI推論・エッジ</td></tr><tr><td>NVIDIA H100(参考)</td><td>NVIDIA(米国)</td><td>AI訓練・推論</td></tr></tbody></table><p>規制は技術開発を止めるのではなく、迂回路の開拓を加速させた。その結果が、1兆パラメータモデルである。</p><h2>ベンチマーク——数字の裏を読む</h2><p>DeepSeekが公表した内部ベンチマークのスコアは目を引く。ただし、未検証であることを明記しておく。</p><table border="1" cellpadding="8" cellspacing="0" style="border-collapse: collapse; width: 100%; margin: 16px 0;"><thead><tr style="background-color: #f3f4f6;"><th>ベンチマーク</th><th>DeepSeek V4</th><th>[Claude](/tag/claude)</th><th>[GPT](/tag/gpt)-4</th></tr></thead><tbody><tr><td>HumanEval(コード生成)</td><td>90%</td><td>88%</td><td>82%</td></tr><tr><td>SWE-bench Verified</td><td>80%超</td><td>非公開</td><td>非公開</td></tr></tbody></table><p>HumanEvalで90%、SWE-bench Verifiedで80%超。これが事実であれば、コード生成と実務的なソフトウェアエンジニアリングの両面で最高水準に達していることになる。</p><p>もっとも、自社ベンチマークの数字をそのまま受け取るのは早計だ。第三者による追試が不可欠である。オープンソースで公開されている以上、検証の土壌は整っている。結果が出るまでは、「有望だが未確定」という留保を付けておく。</p><h2>ネイティブマルチモーダルの意味</h2><p>DeepSeek V4はテキスト、画像、動画、音声をネイティブに処理する。後付けのモジュールではなく、アーキテクチャの設計段階から複数モダリティを統合している点が特徴だ。</p><table border="1" cellpadding="8" cellspacing="0" style="border-collapse: collapse; width: 100%; margin: 16px 0;"><thead><tr style="background-color: #f3f4f6;"><th>対応モダリティ</th><th>想定される活用例</th></tr></thead><tbody><tr><td>テキスト</td><td>文章生成、要約、翻訳、コード生成</td></tr><tr><td>画像</td><td>画像認識、図表解析、視覚的質問応答</td></tr><tr><td>動画</td><td>動画内容の理解、字幕生成</td></tr><tr><td>音声</td><td>音声認識、音声合成</td></tr></tbody></table><p>コンテキストウィンドウは100万トークン以上。書籍数冊分のテキストを一度に処理できる計算になる。長大な文書の分析、複数資料の横断的な参照といった用途で強みを発揮するだろう。</p><h2>日本が受け取るべき問い</h2><p>DeepSeek V4が突きつけるのは、技術力の問題だけではない。半導体サプライチェーンと地政学の交差点に、日本も立っている。</p><p>Rapidusは2027年の量産開始を目指し、2nm世代のロジック半導体に取り組んでいる。だがAI向けアクセラレータの開発は、現時点で国家戦略の中心には据えられていない。Nvidiaへの依存が、日本のAI開発の前提条件として暗黙のうちに組み込まれている。</p><table border="1" cellpadding="8" cellspacing="0" style="border-collapse: collapse; width: 100%; margin: 16px 0;"><thead><tr style="background-color: #f3f4f6;"><th>国・地域</th><th>AI半導体の現状</th></tr></thead><tbody><tr><td>米国</td><td>NVIDIA、AMD、Intelが市場を支配</td></tr><tr><td>中国</td><td>Huawei Ascend、Cambriconで自立路線を加速</td></tr><tr><td>日本</td><td>Rapidusはロジック半導体に注力。AI専用チップは手薄</td></tr></tbody></table><p>DeepSeek V4は、特定の国のチップに依存しなくてもフロンティアAIは構築できるという事実を示した。オープンソースで公開されたことで、その知見は誰でも検証し、再現できる。</p><p>中国のAI技術力が急速に進化していることは、もはや傍観できる話ではない。では、日本は何を選ぶのか。Nvidiaへの依存を続けるのか、独自のAIインフラ戦略を描くのか。DeepSeek V4が投げかけた問いは、技術の話であると同時に、国家の選択の話でもある。</p>
