Cerebras Systemsとはどんな企業か
Cerebrasは2016年に設立されたAIチップメーカーで、「Wafer-Scale Engine(WSE)」と呼ばれる独自アーキテクチャが特徴だ。通常のGPUが複数のダイをパッケージングして一枚のチップを作るのに対し、CerebrasはSiliconウェハ全体を一枚のチップとして使う極端なアプローチを採用している。
現行の「WSE-3」は4兆個のトランジスタを搭載し、900テラフロップスの演算性能を持つ。GPU比で面積は巨大だが、単一ダイであるためチップ間のデータ転送ボトルネックが存在せず、特定の大規模モデルの推論では桁違いの速度を発揮する。NvidiaのH100と直接比較した場合、トークン生成速度でCerebrasが優位なケースが多数報告されている。
直近の第4四半期は売上5億1000万ドル(前年同期比76%増)、純利益8790万ドルを計上しており、AI半導体企業の中でも珍しく黒字化を達成している。
OpenAIとの200億ドル超契約の意味
今回のIPO申請で最も注目を集めているのが、OpenAIとの多年度契約だ。2028年までの間に750メガワット分のコンピュートをOpenAIに供給し、その総額が200億ドルを超えるとされる。これはCerebrasの現在の年間売上換算の4倍近い数字だ。
エンジニア視点で注目すべき点は、この契約がNvidiaやAMDのGPUではなくCerebrasのWSEベースのシステムが選ばれているという事実だ。OpenAIはNvidiaのGPUクラスタを大量に持ちながら、なぜCerebrasを追加で選んだのか。答えは「推論コストの削減」にある。大規模モデルを本番環境で数十億ユーザー向けに提供する際、トークンあたりの推論コストをいかに下げるかが死活問題になる。Cerebrasはこの「高速・低コスト推論」という特定のユースケースで競争力を持っている。
エンジニアが知るべき技術的差別化
NvidiaのA100/H100/H200は汎用性が高く、学習・推論・様々なワークロードに対応できる万能選手だ。一方でCerebrasのWSEは「特定のモデルサイズと推論ワークロードに最適化された専門選手」と言える。
具体的には、Llama-3 70Bのような大型モデルの推論においてCerebrasはH100比で数倍〜十数倍のスループットを達成するケースがある。これはWSEの巨大なオンチップメモリ(44GBのSRAM)が効いており、重みのHBM転送ボトルネックを解消するためだ。
開発者にとって実用的な変化は、Cerebras Cloud APIが整備されつつある点だ。HuggingFaceやvLLMとの統合も進んでおり、既存のPyTorchコードを大きく書き換えることなくCerebrasの推論インフラを試せるようになっている。Google「Gemini 3 Flash」がAgentic Visionを発表してコスト削減を打ち出したように、推論コストの競争は全方位で激化している。
IPOの行方と課題
Cerebrasのリスク要因として目論見書が明示しているのは「顧客集中」だ。OpenAIが主要顧客であり、契約規模の依存度が非常に高い。OpenAIがCerebrasから調達する量を減らした場合、財務への影響は甚大だ。
また、Nvidiaが「NIM(NVIDIA Inference Microservices)」を中心にソフトウェアエコシステムを整備しており、ハードウェアの優位性があっても「エコシステムの引力」がNvidiaに傾くという構造は変わっていない。CerebrasがCUDAに匹敵するソフトウェア体験を提供できるかが中長期の課題だ。
地政学的には、AIチップのサプライチェーン多様化という観点からCerebrasへの期待がある。TSMCに製造依存している点は課題だが、米国設計のAIチップとして米政府の調達対象になりうる位置づけは強みだ。CloudflareとStripeがAIエージェントの自律インフラプロトコルを発表したように、インフラ層の多様化は産業全体のトレンドだ。
日本エンジニアへの影響
Cerebrasが上場し安定した事業基盤を持つと、日本のクラウドプロバイダーやMLエンジニアにとっても選択肢が一つ増える。特に大型言語モデルの推論コストに悩む企業にとって、Nvidia一択からの脱却はコスト最適化の余地を生む。
日本市場では現在、生成AIの推論コストが高止まりしているため、低コスト推論を実現するインフラ選択肢の多様化は直接的なメリットをもたらす。Cerebras Cloudが日本リージョンを展開するか、あるいは国内パートナーと組むかは今後の注目点だ。
今後の注目点
Cerebrasの上場日と初日の市場評価が最初の焦点だ。266億ドル評価を市場が受け入れるかどうかは、投資家がAIインフラの多様化に本気で賭けているかを測る試金石になる。
もう一つの注目点は、OpenAI以外の大手顧客獲得だ。MicrosoftやMetaがCerebrasを採用するようになれば、「OpenAI依存」というリスク要因は大幅に解消される。推論コスト削減の圧力が高まる中で、第3のAIチップとしてのCerebrasの台頭はあるか。エンジニア界の関心が集まる局面だ。
ソース: