1兆パラメータの巨獣、登場
DeepSeek V4が公開された。パラメータ数は1兆。Mixture-of-Experts(MoE)アーキテクチャを採用し、推論時のアクティブパラメータは約320億に抑えられている。巨大でありながら、効率的。この二律背反を成立させた点に、まず目を向ける必要がある。
| 項目 | DeepSeek V4 | 参考: DeepSeek R1 |
|---|---|---|
| 総パラメータ数 | 1兆 | 非公開(推定6,710億) |
| アクティブパラメータ | 約320億 | 約370億 |
| アーキテクチャ | MoE | MoE |
| モダリティ | テキスト・画像・動画・音声 | テキスト中心 |
| コンテキスト長 | 100万トークン以上 | 12.8万トークン |
| ライセンス | オープンソース | オープンソース |
2026年1月、DeepSeek R1がオープンソースの推論モデルとして業界を揺るがした。その記憶がまだ鮮明なうちに、後継モデルが現れた形だ。
Nvidiaなしで、ここまで来た
DeepSeek V4の技術的意義は、スペックの大きさだけにはない。訓練と推論の基盤に、Huawei AscendチップとCambriconチップが使われている点が核心だ。
米国はNvidia製GPUの対中輸出規制を段階的に強化してきた。H100、そしてその代替として設計されたH20も規制対象となり、中国企業がフロンティアAIを構築する道は塞がれたはずだった。DeepSeek V4は、その前提を覆す。
| チップ | 開発元 | 主な用途 |
|---|---|---|
| Huawei Ascend 910C | Huawei(中国) | AI訓練・推論 |
| Cambricon MLU370/MLU590 | Cambricon(中国) | AI推論・エッジ |
| NVIDIA H100(参考) | NVIDIA(米国) | AI訓練・推論 |
規制は技術開発を止めるのではなく、迂回路の開拓を加速させた。その結果が、1兆パラメータモデルである。
ベンチマーク——数字の裏を読む
DeepSeekが公表した内部ベンチマークのスコアは目を引く。ただし、未検証であることを明記しておく。
| ベンチマーク | DeepSeek V4 | Claude | GPT-4 |
|---|---|---|---|
| HumanEval(コード生成) | 90% | 88% | 82% |
| SWE-bench Verified | 80%超 | 非公開 | 非公開 |
HumanEvalで90%、SWE-bench Verifiedで80%超。これが事実であれば、コード生成と実務的なソフトウェアエンジニアリングの両面で最高水準に達していることになる。
もっとも、自社ベンチマークの数字をそのまま受け取るのは早計だ。第三者による追試が不可欠である。オープンソースで公開されている以上、検証の土壌は整っている。結果が出るまでは、「有望だが未確定」という留保を付けておく。
ネイティブマルチモーダルの意味
DeepSeek V4はテキスト、画像、動画、音声をネイティブに処理する。後付けのモジュールではなく、アーキテクチャの設計段階から複数モダリティを統合している点が特徴だ。
| 対応モダリティ | 想定される活用例 |
|---|---|
| テキスト | 文章生成、要約、翻訳、コード生成 |
| 画像 | 画像認識、図表解析、視覚的質問応答 |
| 動画 | 動画内容の理解、字幕生成 |
| 音声 | 音声認識、音声合成 |
コンテキストウィンドウは100万トークン以上。書籍数冊分のテキストを一度に処理できる計算になる。長大な文書の分析、複数資料の横断的な参照といった用途で強みを発揮するだろう。
日本が受け取るべき問い
DeepSeek V4が突きつけるのは、技術力の問題だけではない。半導体サプライチェーンと地政学の交差点に、日本も立っている。
Rapidusは2027年の量産開始を目指し、2nm世代のロジック半導体に取り組んでいる。だがAI向けアクセラレータの開発は、現時点で国家戦略の中心には据えられていない。Nvidiaへの依存が、日本のAI開発の前提条件として暗黙のうちに組み込まれている。
| 国・地域 | AI半導体の現状 |
|---|---|
| 米国 | NVIDIA、AMD、Intelが市場を支配 |
| 中国 | Huawei Ascend、Cambriconで自立路線を加速 |
| 日本 | Rapidusはロジック半導体に注力。AI専用チップは手薄 |
DeepSeek V4は、特定の国のチップに依存しなくてもフロンティアAIは構築できるという事実を示した。オープンソースで公開されたことで、その知見は誰でも検証し、再現できる。
中国のAI技術力が急速に進化していることは、もはや傍観できる話ではない。では、日本は何を選ぶのか。Nvidiaへの依存を続けるのか、独自のAIインフラ戦略を描くのか。
オープンソース戦略の真意——中国版「Linux革命」か
DeepSeekがV4をオープンソースで公開した戦略的意図は、単なる技術共有にとどまらない。中国政府は2025年以降、国産AIモデルのグローバルなエコシステム構築を国家戦略として推進している。オープンソース公開により、東南アジア、中東、アフリカなど、米国のAI規制の影響を受ける国々で採用が進む可能性がある。
この構図は、1990年代のLinux革命と類似している。MicrosoftのWindowsに対抗してLinuxがオープンソースで普及したように、米国のクローズドモデル(GPT、Claude)に対抗して中国のオープンソースモデルが普及する——という地政学的な構図が形成されつつある。
AI開発者コミュニティの反応
HuggingFaceでのDeepSeek V4の公開から48時間で、ダウンロード数は50万回を超えた。特にコード生成能力への評価が高く、Stack Overflowのコミュニティでは「HumanEval 90%が本当なら、ローカルで動くコーディング支援ツールの最強の選択肢になる」との声が上がっている。
一方、セキュリティ研究者からは懸念も出ている。中国製のオープンソースモデルに潜在的なバックドアや情報収集機能が含まれている可能性について、複数のセキュリティ企業が独立した監査を開始した。信頼性の検証は、技術的な性能評価と同等に重要な課題だ。
コスト構造の破壊——DeepSeekが示した「安いAI」の衝撃
DeepSeek V4が業界に与えた最大のインパクトは、スペックではなくコストかもしれない。DeepSeek V3の段階で、同社はGPT-4クラスのモデルを推定600万ドルで訓練したとされる。OpenAIのGPT-4の訓練コストが推定1億ドル以上であることを考えると、桁違いの効率だ。
V4では1兆パラメータに規模を拡大しながらも、Huawei Ascendチップの活用とMoEアーキテクチャの最適化により、訓練コストは推定2,000〜3,000万ドルに抑えられたとみられる。この数字は、Meta(Llama 3の訓練に推定2〜3億ドル)やGoogle(Gemini Ultraに推定数億ドル)と比較して一桁小さい。このコスト効率の高さは、AI開発の民主化を加速させる。数千万ドルの予算があればフロンティアモデルを構築できるとなれば、参入障壁は劇的に下がり、AI開発は大企業の独占から脱する可能性がある。実際、DeepSeekの成功に触発されたスタートアップが世界各地で出現しており、「安くて強いAI」の時代が本格的に始まりつつある。
DeepSeek V4は、特定の国のチップに依存しなくてもフロンティアAIは構築できるという事実を示した。DeepSeek V4が投げかけた問いは、技術の話であると同時に、国家の選択の話でもある。