2026年4月17日、米メディア「The Information」は、OpenAIがAIチップメーカーのCerebrasとの調達契約を総額200億ドル超に倍増させたと報じた。
同日、CerebrasはNASDAQへの新規上場申請(IPO)を提出しており、両社の関係はチップの売買を超えた「戦略的共生」の段階に入っている。
この記事の要点
- OpenAIがCerebrasとの調達契約を100億ドルから200億ドル超に倍増させた
- 契約には株式ワラント最大10%と10億ドルの設備支援が組み込まれ、戦略的共生の構造に踏み込んだ
- CerebrasはNASDAQへIPO申請。目標評価額350億ドルは2025年9月比で4倍超の水準
- OpenAIはBroadcomと自社ASICも並行開発し、Nvidia依存を段階的に縮小する「二正面戦略」を取る
- Cerebrasの収益はOpenAIへの依存度が高く、上場後の機関投資家評価が焦点となる
100億ドルから200億ドルへ——株式10%取得と10億ドルの設備支援を組み込む異例の構造
OpenAIとCerebrasの最初の合意は2026年1月にさかのぼる。
当初は「3年間で最大100億ドルの調達」という内容だったが、今回の報道で総額は200億ドルを超えた。
金額の倍増にとどまらず、この契約にはいくつかの異例の条件が組み込まれている。
OpenAIはCerebrasの株式ワラントを取得し、発注規模に応じてCerebras全株式の最大10%を保有できる。チップを買うほどOpenAIの持ち分が積み上がる設計だ。
さらにOpenAIは、Cerebrasが新たなデータセンターを建設するための10億ドルの資金支援も行うという。
大量発注に株式と設備投資を組み合わせたこの枠組みは、OpenAIがCerebrasの成長に直接参加する構造を意味する。
AI推論の計算においてNvidiaのGPUが圧倒的なシェアを持つ現状を変えるため、OpenAIはCerebrasを「戦略的サプライヤー」として育てる立場に回りつつある。
CerebrasのIPO申請——評価額は半年で4倍超の350億ドルに
OpenAIとの契約発表と同日、CerebrasはNASDAQへの上場申請を提出した。
目標評価額は350億ドルで、2025年9月時点の81億ドルから4倍以上に膨らんだ数字だ。Cerebrasは2025年に一度上場申請を取り下げており、今回は再挑戦となる。
主力製品「WSE(ウエハースケールエンジン)」は、通常の半導体とは異なり、シリコンウエハーの全面を1枚のチップとして使う独自設計を採用している。
LLMの推論処理においてNvidia製GPUとは異なる特性を発揮するとされ、メモリ帯域幅の面でも優位性があると言われる。
IPO申請に際して懸念されるのは、CerebrasのOpenAIへの収益依存度の高さだ。
主要顧客の動向がそのまま業績を左右する構造は、投資家にとってリスクとして映る可能性がある。上場後に機関投資家がどう評価するかが焦点のひとつになる。
対Nvidia「二正面戦略」——Broadcomとの自社ASICも並行開発
OpenAIのハードウェア投資はCerebrasにとどまらない。
Broadcomとの協業で自社設計のカスタムASICチップの開発も進めており、2026年末までに量産体制に入る計画とされる。
Cerebrasを外部サプライヤーとして育てながら、自社設計シリコンも開発する「二正面戦略」は、Nvidiaへの依存を段階的に減らしながら推論コストを引き下げることを狙っている。
ChatGPTやAPIを通じて膨大な推論トラフィックを処理するOpenAIにとって、チップコストの削減は損益に直結する問題だ。
AI推論市場でのNvidiaの地位は依然として強固だが、主要AI企業が代替チップの育成に本腰を入れ始めたことで、2026〜2027年にかけてサプライチェーンの変化が加速する可能性がある。
OpenAIとCerebrasの関係がどこまで深まるか、そしてIPO後のCerebrasがどの程度の規模で生産を拡大できるかが、Nvidiaの「推論独占」を崩す鍵になる。
ソース:
- OpenAI to Spend More Than $20 Billion on Cerebras Chips, Receive Equity Stake — The Information(2026年4月17日)
- OpenAI to spend more than $20 billion on Cerebras chips, receive equity stake — StartupNews.fyi(2026年4月17日)
- AI chipmaker Cerebras files to go public after scrapping IPO plans last year — CNBC(2026年4月17日)
- OpenAI's $20B Cerebras Deal Hides a 10% Stake in Cerebras — humai.blog(2026年4月17日)
計算リソース契約の戦略的意味
OpenAIとCerebrasの200億ドル規模の契約は、単なるGPU調達を超えた意味を持つ。
NVIDIAへの過度な依存を分散し、専用アーキテクチャによる推論と学習の最適化を狙う複合的な戦略だ。
この種のマルチベンダー調達は、今後のフロンティアAI企業の標準的な動きになっていく。
Cerebras の技術的な位置付け
Cerebras のウェハースケールチップは、従来のGPUとは異なる設計思想を持つ。
巨大な単一チップによるメモリ帯域とレイテンシの削減が、特定のワークロードで大きな利点を生む。
長文コンテキスト推論、リアルタイム推論、スパース推論。
これらの領域でのCerebrasの実効性能が、今後の採用拡大を左右する。
ハードウェアの多様化が産む競争
AIインフラのハードウェアは、NVIDIA単独から、AMD、Intel、Google TPU、AWS Trainium/Inferentia、Cerebras、Groqなど、複数勢力の競争時代に入っている。
この多様化は、最終的にAI推論のコスト低下とユースケースの拡大を促す。
あなたのプロダクトが使うAI推論環境は、どの勢力の上に乗るのが長期的に最適だろうか。
AI推論経済の成熟
AI推論のコストと性能の関係は、今後数年で大きく変わる。
専用チップ、新しいアーキテクチャ、最適化技術、分散推論。
これらが組み合わさることで、推論コストは桁違いに下がる可能性がある。
コストが下がれば、AIのユースケースは一気に広がり、ビジネス設計そのものが再定義される。
インフラ投資の長期視点
AIインフラへの巨額投資は、短期の決算だけで評価すべきではない。
5〜10年の時間軸で、どの企業がどんな優位性を築くのかを見る視点が、本当の競争力の理解につながる。
あなたの組織は、短期と長期のどちらの目線でこの動きを見ているだろうか。
日本市場への示唆——ソフトバンクとSakana AIの動きと重なる構造
OpenAIとCerebrasの200億ドル契約は、日本のAIインフラ戦略にも示唆を与える。
ソフトバンクグループは2025年から2026年にかけて、Stargateプロジェクトを通じてOpenAIへの巨額出資を進めており、同時にArmを通じた半導体設計の優位性も保持している。OpenAIがCerebrasに行った「株式取得と設備支援を組み合わせた調達契約」と類似の構造を、ソフトバンクは別の経路で構築している。
国内勢ではSakana AIが2025年にNvidiaから出資を受け、サクラインターネットの計算基盤と組み合わせる動きを見せた。日本のAIスタートアップが「計算資源の優先確保」と「ハードウェアパートナーの株式関係」をセットで設計する流れは、OpenAI-Cerebras型の構造の縮小版とも言える。
経済産業省のAI事業基盤整備事業は2026年度に総額1兆円規模に拡大したが、Nvidia偏重からの脱却が論点として浮上している。AWS Trainium、Google TPU、Cerebras WSEといった代替アーキテクチャを国内データセンターに組み込む動きが、官民協調の形で進む可能性がある。
競合動向との比較——Anthropic-Amazonの構図との違い
OpenAIとCerebrasの関係を理解するには、Anthropic-Amazonの構図と並べてみると違いが鮮明になる。
AmazonはAnthropicに総額80億ドルを投資し、Anthropicの主要計算基盤としてAWSのTrainium2チップを採用させている。AmazonはAnthropicの少数株主であり、Anthropicの推論需要をAWS Trainiumの実証ケースとして活用する構造だ。「チップ提供企業が出資する」という流れが基本になっている。
OpenAIとCerebrasの関係はこれを反転させている。チップを買う側のOpenAIが、チップ供給元のCerebrasの株式を取得する。需要側が供給側を「育てる」構造であり、AI企業がインフラ層を後方統合していく流れの典型だ。
Googleは自社開発のTPUで完全に内製化、Microsoftは独自ASIC「Maia」とAMDのMI300Xを組み合わせる、Metaは「MTIA」を社内開発と、それぞれ異なるアプローチを取っている。フロンティアAI企業ごとに異なる調達戦略が並走する構図は、半導体業界全体の競争地形を塗り替えつつある。
今後の論点——Nvidiaの推論シェアはどこまで削れるか
推論市場でのNvidiaのシェアは2026年時点で依然として80%超とされる。
しかしOmdiaの2026年予測では、2028年までにNvidiaの推論シェアは65%前後まで低下する可能性があるとされている。Cerebras、Groq、SambaNova、AWS Inferentia、Google TPU v6e、Microsoft Maia——複数の代替アーキテクチャが同時に量産フェーズに入ることで、Nvidiaの一強構造が崩れていく見通しだ。
ただしNvidiaも手をこまねいているわけではない。Blackwell世代の出荷拡大、Rubin世代の前倒し、CUDAエコシステムの厚みを武器に「ソフトウェアロックイン」で差別化を図っている。代替チップに移行するコスト——コード書き換え、性能検証、運用ノウハウの再構築——は依然として高い。
2026年から2027年にかけては、フロンティアAI企業がどこまで「マルチベンダー前提のソフトウェアスタック」を整備できるかが分水嶺になる。OpenAIがCerebrasとBroadcom自社ASICの二正面戦略を完遂できれば、それは他のAI企業にとっても「Nvidia依存を解体する成功事例」になる。
よくある質問
Q1. なぜOpenAIは契約を倍増させたのか?
ChatGPTやAPIで処理する推論トラフィックが急増し、Nvidia GPU一極集中ではコストと供給リスクが高すぎるためである。Cerebrasを外部サプライヤーとして育てることで、推論単価の引き下げと供給多様化を同時に狙う。
Q2. Cerebrasの強みは何か?
主力製品WSEはシリコンウエハー全面を1枚のチップとして使う独自設計を採る。メモリ帯域幅でNvidia GPUと異なる優位を持ち、LLM推論で高速化が期待できる点が大型契約の根拠となっている。
Q3. Nvidiaの地位は揺らぐのか?
短期的にAI推論市場でのNvidiaの地位は強固である。ただしOpenAIに続きAmazonやGoogleも代替チップ投資を加速しており、2026〜2027年にかけてサプライチェーン構造の変化が表面化する可能性が高い。



