AIインフラの次なるボトルネックは、GPUの演算能力ではない。GPU同士をつなぐ「配線」だ。その課題を解決する光インターコネクト企業Ayar Labsが、シリーズEで5億ドル(約750億円)を調達した。リード投資家はNVIDIAとAMDの2社だ。
光インターコネクトとは何か——銅線の限界を光で超える
現在のデータセンターでは、GPU間の通信に銅線ケーブルが使われている。しかし、AIモデルの巨大化に伴い、数千〜数万のGPUを同時に動かす必要があり、銅線では帯域幅と消費電力の限界に直面している。
Ayar Labsの技術は、銅線の代わりに光(シリコンフォトニクス)でデータを伝送する。光は銅線より高速で、消費電力も大幅に少ない。同社の「光チップレット」は、既存のCMOS製造プロセスと互換性があり、特殊な製造ラインを必要としない点が強みだ。
| 比較項目 | 銅線インターコネクト | 光インターコネクト |
|---|---|---|
| 帯域幅 | 限界に到達(〜400Gbps/リンク) | 1Tbps以上/リンク |
| 消費電力 | 距離に比例して増大 | 最大80%削減 |
| 伝送距離 | 〜3メートル(信号劣化) | 数百メートル〜数キロ |
| 拡張性 | ケーブル重量・冷却が制約 | 軽量・低発熱で容易に拡張 |
| レイテンシ | 距離に依存 | 光速で一定 |
NVIDIAとAMDが共同投資する異例の構図
通常、NVIDIAとAMDはGPU市場で激しく競合する。その両社が同一企業に共同投資するのは極めて異例だ。これは光インターコネクトがどちらか一方のエコシステムに閉じた技術ではなく、AI業界全体のインフラ基盤になりうることを意味する。
| 投資家 | 戦略的意図 |
|---|---|
| NVIDIA | 次世代NVLink/NVSwitch向けの光接続を確保。Blackwell世代以降のスケーリングに不可欠 |
| AMD | Instinct MI400シリーズでの光インターコネクト統合。NVIDIA対抗のAIインフラ構築 |
| Intel Capital | 自社のシリコンフォトニクス技術との補完。Gaudi AIアクセラレータ向け |
競合環境——光インターコネクト市場の主要プレイヤー
Ayar Labsだけが光インターコネクトに取り組んでいるわけではない。市場は急速に形成されつつある。
| 企業 | 技術アプローチ | 調達額 |
|---|---|---|
| Ayar Labs | シリコンフォトニクス光チップレット | 5億ドル(シリーズE) |
| Lightmatter | フォトニックインターコネクトファブリック | 4億ドル(2024年シリーズD) |
| Celestial AI | 光ファブリック技術「Photonic Fabric」 | 2.5億ドル(2024年シリーズC) |
| Broadcom | プラガブル光モジュール(既存市場支配者) | 自社開発 |
光インターコネクト市場は2030年までに100億ドル規模に成長すると予測されている(Yole Intelligence)。AIデータセンターの建設ラッシュが市場を牽引しており、Meta、Google、Microsoftなどのハイパースケーラーがいずれも光接続技術への移行を検討している。
AIインフラの「見えない部分」——なぜ今、接続技術に注目が集まるのか
GPT-4の学習には約25,000台のA100 GPUが使われたとされる。次世代モデルでは10万台以上のGPUクラスタが必要になる可能性がある。GPU間の通信帯域がボトルネックになれば、いくらGPUの演算性能を上げても全体の性能は向上しない——いわゆる「アムダールの法則」の変形だ。
NVIDIAのBlackwell GPUは1チップあたり1.8TB/sの帯域幅を必要とする。これを銅線で実現するには膨大なケーブルが必要で、冷却・重量・電力の問題が深刻化する。光インターコネクトは、この物理的制約を根本から解消する。
光インターコネクト市場の成長予測
光インターコネクト市場は爆発的な成長が予測されている。
| 市場セグメント | 2024年 | 2030年予測 | CAGR |
|---|---|---|---|
| 光インターコネクト全体 | 160億ドル | 345億ドル | 14.1% |
| シリコンフォトニクス | 22億ドル | 97億ドル | 29.5% |
| CPO(Co-Packaged Optics) | 0.5億ドル | 200億ドル超(2036年) | 37% |
CPO市場が2036年までに200億ドルを超えるという予測は、光インターコネクトが「ニッチ技術」から「標準インフラ」に転換することを意味する。Meta、Microsoft、Googleなどのハイパースケーラーが2026年初頭にシリコンフォトニクスベンダーとのCPOパイロットプログラムを発表しており、量産化のタイムラインは加速している。
データセンターの電力消費は2026年に650〜1,050TWhに達すると予測されている(IEA)。AIが電力需要の最大の成長要因であり、年率約15%の増加が2030年まで続く見通しだ。米国ではデータセンターの電力消費が全米の4.4%(2023年)から2028年までに6.7〜12%に拡大するとの推計がある。この「電力問題」を解決する鍵が光インターコネクトによる省電力化であり、Ayar Labsの技術はAIのサステナビリティにとっても不可欠なピースだ。
日本の半導体戦略への示唆
日本がラピダスで最先端半導体の製造に挑む中、光インターコネクト技術もまた国家戦略として位置づけるべき領域だ。NTTが推進する「IOWN(Innovative Optical and Wireless Network)」構想は、光技術によるインフラ革新を目指す点でAyar Labsの方向性と重なる。チップだけでなく、チップをつなぐ技術にも投資する——AI時代のインフラ戦略には、その視点が不可欠だ。
TeraPHY光チップレットの技術仕様
Ayar Labsの主力製品「TeraPHY」の性能を、より詳細に見てみよう。
| 仕様 | 数値 |
|---|---|
| 帯域幅 | 最大8Tbps双方向(各方向4Tbps) |
| チップエッジあたり帯域 | 200Gbps/mm |
| 電力効率 | 5pJ/bit未満(電気I/Oの10倍以上効率的) |
| レイテンシ | 10ナノ秒 |
| 規格準拠 | UCIe(ダイ間接続の標準規格) |
| 実証済み最大スループット | 16Tbps双方向(5pJ/bit未満) |
5pJ/bit(ピコジュール/ビット)という数字は、従来の電気信号によるI/Oと比較して消費電力が10分の1以下であることを意味する。GPUクラスタが10万台規模に達する次世代AI学習では、この省電力性が決定的な差を生む。
NVIDIAのNVLinkロードマップ——光への移行は既定路線
NVIDIAは次世代GPU間接続を段階的に光インターコネクトに移行する計画を示している。
| 世代 | GPU | 帯域幅(/GPU) | 備考 |
|---|---|---|---|
| NVLink 5.0 | Blackwell(2024-25年) | 1,800GB/s | 銅配線ベース |
| NVLink 6.0 | Vera Rubin(2026年後半) | 3,600GB/s | NVL72ラック:72GPU+36CPU=260TB/s |
| NVLink 7.0 | Rubin Ultra(2027年) | 3,600GB/s | ポート数144に増加。光対応本格化 |
NVIDIAは2026年以降のプラットフォームでシリコンフォトニクスとCPO(Co-Packaged Optics)への移行を計画しており、光インターコネクトにより576〜1,152 GPUパッケージの超大規模クラスタ構成が可能になる。2026年3月にはNVIDIA自身が光技術に40億ドルを投資したことも報じられ、光インターコネクトが「次世代AI基盤の標準」になる流れは不可逆的だ。
出典: Tech Startups, Reuters, Yole Intelligence, NVIDIA技術ドキュメント
