この記事の要点
- 中国DeepSeekが2026年4月24日、旗艦モデル「V4」プレビュー版をオープンウェイトで公開。GitHubとHuggingFaceで配布されている。
- V4-Proは総1.6兆パラメータ(アクティブ490億)、V4-Flashは総2,840億(アクティブ130億)のMoE構成を採用する。
- 新メモリアーキテクチャ「Engram」はKVキャッシュコストをO(N)からO(1)へ圧縮し、推論コストを70%以上削減した。
- LiveCodeBenchやCodeforcesでClaude Opus 4.6を上回り、MMUL-ProではGPT-5.4 xHighに肉薄する性能を示した。
- 国産チップを一部使用したと報じられており、米国の対中輸出規制の実効性に新たな疑問が突きつけられている。
2バリアント構成——V4-ProとV4-Flash
V4は用途に応じた2バリアントで構成される。
V4-Proは総パラメータ1.6兆(アクティブパラメータ490億)、V4-Flashは総パラメータ2,840億(アクティブパラメータ130億)でいずれもMixture-of-Experts(MoE)アーキテクチャを採用している。 MoEは推論時に全パラメータを使わず一部のエキスパートのみを活性化するため、同規模の密なモデルと比べて計算効率が高い。 V4-Proのアクティブパラメータ490億は総パラメータ1.6兆のわずか3%程度であり、この設計が推論コストの大幅な削減を支えている。
ベンチマーク評価では、V4-ProがLiveCodeBenchおよびCodeforcesでClaude Opus 4.6を上回る結果を示した。 MMUL-ProではGPT-5.4 xHighに肉薄しており、コーディング・推論・汎用知識の各領域で競争力のある性能を持つことが示されている。
どちらのモデルも100万トークン(約75万語相当)のコンテキスト長をサポートする。 大規模なコードベースや長文ドキュメントを一度に処理できる長さであり、エンタープライズ用途での活用が想定される。
新アーキテクチャ「Engram」で推論コストを抜本的に削減
今回のV4で技術的に注目されるのが、新メモリアーキテクチャ「Engram」の採用だ。
従来のトランスフォーマーモデルではKVキャッシュのコストがコンテキスト長Nに比例してO(N)で増大する。 1Mトークンという超長文コンテキストを扱う場合、このコストが性能上の壁になっていた。
Engramはスケーラブルなルックアップ機構によりこのコストをO(1)へと圧縮している。 DeepSeekは「人間の海馬に着想を得た条件付きメモリ」と表現しており、記憶容量を増やしても検索コストが増加しない設計を目指したという。
この変更により推論コストが70%以上削減され、コンシューマーグレードのRAM環境での自己ホスティングが現実的になった。 オープンウェイトモデルを自社インフラで運用するコスト障壁の低下は、AIの民主化という観点でも意義が大きい。
さらに新しいハイブリッドアテンションアーキテクチャと推論整合化アルゴリズムを組み合わせたことで、複雑なマルチステップタスクやツール呼び出しにおける安定性が向上した。 AIエージェントが業務システムに組み込まれる現在のトレンドを意識した設計方針といえる。
中国製チップの使用と米国輸出規制への示唆
今回の発表で地政学的に注目されるのが、チップの調達経路だ。
日本経済新聞の報道によれば、V4は国産半導体を一部使用して開発されたとされている。 米国はNVIDIA製の高性能チップを中国に輸出する規制を段階的に強化してきたが、DeepSeekが国産チップで最先端モデルを開発できるとすれば、その規制効果への疑問が高まる。
2025年1月のDeepSeek-V3発表時、コスト効率の高さが明らかになるとNVIDIA株が急落した経緯がある。 今回のV4はさらに性能面での向上が示されており、市場への影響が注視されている。
中国のAI企業が米国の規制下でも競争力のあるモデルを開発し続けられるかどうかは、AI覇権をめぐる米中競争の文脈で重要な問いとなっている。 V4の公開は、その問いに対するDeepSeekからの一つの回答だ。
ソース:
- DeepSeek、新モデル「V4」発表 中国製半導体を使用 — 日本経済新聞(2026年4月24日)
- China's DeepSeek releases preview of long-awaited V4 model as AI race intensifies — CNBC(April 24, 2026)
- DeepSeek-V4 プレビュー版が正式リリース、オープンソース化 — deepseekv4.app(2026年4月24日)
価格破壊が業界に与える衝撃——OpenAI・Anthropic・Googleへの圧力
DeepSeek-V4の入力0.14ドル/100万トークンという価格設定は、業界の収益モデルに直接的な圧力をかける。
GPT-5.5が入力5ドル、Claude Opus 4.6が入力15ドルである現状と比較すると、V4は1/35〜1/100の価格水準で同等のベンチマーク性能を提示している。 オープンウェイトでセルフホスティングが可能な点を考慮すれば、コスト優位はさらに広がる。
2025年1月のDeepSeek-V3発表時、NVIDIA株は単日で約17%下落し、時価総額にして約6,000億ドルが消失した。 今回のV4発表は性能向上を伴っており、市場の反応はより構造的なものになる可能性がある。
OpenAIの2026年売上見通しは約120億ドル、Anthropicは約90億ドルとされる。 これらの売上の大半はAPIから来ており、V4が同等性能で1/35の価格を提示することで、APIマージンの再交渉を迫られる構図になる。 DeepSeekの登場は単なる競合追加ではなく、フロンティアAIのビジネスモデルそのものに疑問を投げかけている。
国産チップエコシステムの台頭——Huawei Ascendが示す代替路線
V4が国産半導体で開発されたという報道は、技術的には大きな転換点を示唆する。
中国はNVIDIA H100・H200の輸出規制を受け、Huawei Ascend 910B・910Cを中心とする国産AIチップエコシステムの構築を進めてきた。 2025年時点でAscend 910Bの性能はH100の約70%とされていたが、V4の訓練に活用できたとすれば、その差は実用上問題ない水準まで縮まっている可能性がある。
この動きは、米国の輸出管理政策(Export Administration Regulations)の有効性に根本的な疑問を投げかける。 戦略国際問題研究所(CSIS)の2026年初頭のレポートは、中国の国産AIチップの自給率が2024年の約25%から2026年初頭には約45%に上昇したと推計している。
日本のAI開発者にとっても、これは無視できない動きだ。 NVIDIA一強の調達構造が崩れれば、AI訓練・推論の調達戦略を多元化する選択肢が広がる。 ただし、Huawei製チップは米国の二次規制の影響で日本企業が直接調達するのは困難であり、当面はOpenAI・Anthropic・Googleなどの米国系プラットフォーム経由でV4を利用する形が現実的な選択肢となる。
オープンウェイト戦略の地政学的意味——「AIの民主化」と国家戦略
DeepSeekがV4をオープンウェイトで公開した戦略は、商業的合理性だけでは説明できない。
1.6兆パラメータのフロンティアモデルを誰でもダウンロードできる形で公開することは、Meta(Llama 3.x系)以外では稀である。 OpenAI・Anthropic・Googleはすべてクローズドモデルを基本としており、エコシステム支配の重要なレバーとして位置付けている。
DeepSeekのオープン路線は、中国政府の国家戦略と整合的だ。 世界中の開発者がDeepSeekモデルを使い、その上にアプリケーションを構築すれば、中国製AIが事実上の標準となる経路が開ける。 Meta CEOマーク・ザッカーバーグが「オープンモデルで業界標準を握る」と公言したのと同じ戦略を、国家規模で実行している構図だ。
日本のスタートアップにとっては、V4のオープンウェイト公開は両刃の剣となる。 自社プロダクトに最新フロンティアモデルを低コストで組み込めるメリットは大きいが、データの取り扱いや出力の傾向性(中国政府にとって不都合な話題への回答制限など)については、本番採用前に綿密な検証が必要となる。
よくある質問
Q1. Engramアーキテクチャの利点は?
従来のトランスフォーマーではKVキャッシュコストがコンテキスト長Nに比例して増大したが、Engramはこれをスケーラブルなルックアップ機構でO(1)に圧縮した。推論コスト70%以上の削減により、コンシューマー級RAMでの自己ホスティングが現実的となった。
Q2. V4-ProとV4-Flashの違いは?
V4-Proは総1.6兆パラメータでアクティブ490億、V4-Flashは総2,840億でアクティブ130億のMoE構成だ。Proは高負荷タスク向け、Flashは軽量高速用途向けと位置付けられる。両モデルとも100万トークンのコンテキスト長を持つ。
Q3. 国産チップ使用の意味は?
米国はNVIDIA製高性能チップの対中輸出規制を強化してきたが、DeepSeekが国産半導体で最先端モデルを開発できる事実は規制効果に疑問を投げかける。2025年1月のV3発表時もNVIDIA株急落を招いた経緯がある。

