Cerebrasとは何者か——「ウエハー1枚まるごとチップ」という発想
通常の半導体チップは、シリコンウエハーから数百〜数千個の小さなダイ(チップ)を切り出して製造する。 Cerebrasはこの常識を捨てた。
ウエハースケールエンジン(WSE) と呼ばれる同社のプロセッサは、300mmウエハー1枚をまるごと1つのチップとして使う。 NVIDIAのH100が814mm²なのに対し、CerebrasのWSE-3は46,225mm²——面積にして約57倍だ。
| 比較項目 | NVIDIA H100 | Cerebras WSE-3 |
|---|---|---|
| ダイ面積 | 814mm² | 46,225mm² |
| トランジスタ数 | 800億個 | 4兆個 |
| オンチップメモリ | 80GB (HBM3) | 44GB (SRAM) |
| メモリ帯域 | 3.35TB/s | 21PB/s |
| 主な用途 | 汎用AI訓練・推論 | 大規模モデル訓練特化 |
この巨大チップの利点は「メモリ帯域」にある。 LLMの訓練では、数千億のパラメータをGPU間で転送するネットワーク通信がボトルネックになる。 WSEはすべてが1つのチップ上にあるため、この通信コストがゼロに近い。
OpenAIとの深い関係
Cerebrasの顧客リストで最も目を引くのがOpenAIだ。 両社は複数年にわたるパートナーシップを結んでおり、OpenAIの大規模モデル訓練にCerebrasのインフラが使われている。
IPO申請書によると、Cerebrasの2025年度売上高の約60%がOpenAI関連だった。 この「顧客集中リスク」は投資家にとって懸念材料だが、逆に言えばOpenAIが実際の開発で選んだ技術であることの証明でもある。
その他の主要顧客には、メイヨー・クリニック(医療AI)、AstraZeneca(創薬AI)、TotalEnergies(エネルギー最適化)などが名を連ねる。
なぜ今、IPOなのか
背景には3つの構造的な追い風がある。
1. AI推論需要の爆発
BigTech4社のAIインフラ投資は2026年に合計7,000億ドル(約100兆円)を超える見通しだ。 そのうち推論インフラへの配分が急速に増えており、訓練特化型だったCerebrasにも推論市場への参入余地が広がっている。
2. NVIDIA供給の逼迫
NVIDIAのBlackwellチップは需要に対して供給が追いついていない。 「NVIDIAを待てない」企業にとって、Cerebrasは代替選択肢になり得る。
3. 地政学的なチップ多様化圧力
米国政府はAI半導体のサプライチェーン多様化を推進している。 TSMC一極集中のリスクを分散させたい政策意図が、Cerebrasのような米国純正メーカーの追い風になっている。
日本の半導体産業への示唆
Cerebrasの躍進は、日本の半導体戦略にも示唆を与える。
Rapidusとの対比
日本が国策で推進するRapidusは「先端ロジック(2nm)の量産」を目指す。 一方Cerebrasは「既存プロセスで巨大チップを作る」というまったく異なる戦略で成功しつつある。 先端微細化だけが半導体の勝ち筋ではないという事実を、Cerebrasは証明している。
装置メーカーへの影響
ウエハースケールチップの製造には、通常とは異なる歩留まり管理やパッケージング技術が必要だ。 東京エレクトロンやアドバンテストなど日本の装置メーカーにとって、こうした新しい製造ニーズは新市場の開拓機会になる。
| 日本企業 | Cerebras関連の機会 |
|---|---|
| 東京エレクトロン | ウエハースケール向け成膜・エッチング装置 |
| アドバンテスト | 超大型ダイのテストソリューション |
| SCREENホールディングス | 歩留まり向上のための洗浄・検査装置 |
| レーザーテック | 欠陥検査の高精度化 |
266億ドルの問い
Cerebrasの IPOは、AI半導体市場に根本的な問いを投げかけている。
「NVIDIAのGPUアーキテクチャは、本当にAI計算の最適解なのか?」
ウエハースケールという異端のアプローチが266億ドルの評価を受けたという事実は、少なくとも投資家がこの問いに「わからない」と答えていることを意味する。
AI半導体は「NVIDIA一強」から「多極化」へと移行しつつある。 Cerebrasの上場は、その転換点を象徴する出来事になるかもしれない。
出典: TechCrunch, CNBC, Cerebras S-1 Filing (SEC)
