TPU第8世代「TPU 8i」——推論最適化チップがエージェント応答速度を変える
今回発表の中でエンジニアが最も注目すべきは、TPU第8世代(通称「TPU 8」)だ。
TPU 8は初めて2種類のチップで構成される世代で、「TPU 8i(推論用)」と「TPU 8t(訓練用)」が独立して設計されている。TPU 8iの最大の特徴は、AIエージェントのワークフローに特化した「超低レイテンシ推論」だ。強化学習ループや連鎖的な推論ステップを高速処理し、エージェントが次のアクションを決定するまでの待機時間を大幅に短縮できるとされている。
これは単なる速度の話ではない。エージェントが「人間の会話速度で動く」ためには、推論の遅延が数百ミリ秒以内に収まる必要がある。ここがボトルネックになっているエンタープライズ向けAIエージェントは多く、TPU 8iはその制約を取り除く可能性を持つ。
一方でTPU 8tは大規模モデルの事前訓練・ファインチューニングに特化しており、SiFiveのようなエッジ向けカスタムシリコンとは異なる、データセンタースケールの計算需要に対応する。
Gemini Enterprise Agent Platform——ノーコードから本格運用まで1つのプラットフォームで
Googleが「エージェント時代のコントロールプレーン」と位置づけるのが、新発表の「Gemini Enterprise Agent Platform」だ。
このプラットフォームは、エージェントの構築(Agent Designer)・実行状況の管理(Inbox)・長期実行エージェントの管理・スキルライブラリ・プロジェクト管理の5機能を一体化したものだ。プロトタイプからプロダクション運用まで、別々のツールを組み合わせなくてよくなる設計は、エンジニアリングチームの管理コストを下げる狙いがある。
特に「長期実行エージェント」対応が実践的だ。これまで多くのLLMアプリは「セッション単位」でしか動作できず、数日・数週間にわたるタスクを自律的に継続することが困難だった。Gemini Enterprise Agent Platformでは、状態の永続化とタスクの中断・再開管理が標準で提供される。
エンジニアとして気になるのは、既存の社内システムとの統合の容易さだ。Agent Designerがどこまでスキーマ定義を自動化できるか、セキュリティポリシーとの衝突をどう処理するかは、実運用段階での評価待ちだろう。
A2Aプロトコル1.2——150社本番稼働が示す「エージェント間通信標準」の現在地
Googleが昨年発表したAgent-to-Agent(A2A)プロトコルが、バージョン1.2に進化した。
最大のアップデートは「暗号署名付きエージェントカード」だ。エージェントがドメイン検証を通じて自己証明できるようになり、悪意あるエージェントとの通信を防ぐセキュリティ層が追加された。これはマルチエージェントシステムが実運用に入る上で不可欠な要素だった。
現在A2Aが本番稼働しているのは150組織以上で、Microsoft・AWS・Salesforce・SAP・ServiceNowがすでに本格利用している。LangGraph・CrewAI・LlamaIndex Agents・Semantic Kernel・AutoGenなどの主要フレームワークにもネイティブサポートが追加された。
エンジニアの観点でA2Aの重要性を強調しておくと、これはAnthropicのMCP(Model Context Protocol)と「競合」するものではなく「補完」する関係だ。OpenAIがWorkspace Agentsで企業横断インフラを目指す中、A2AはGoogleが推進する「異なるプラットフォーム上のエージェント同士が安全に通信する標準」として機能する。MCPがエージェントとツール・データソースを繋ぐ一方、A2Aはエージェント同士を繋ぐ。
Workspace Studio——平文で書けばエージェントが動く時代
ビジネスユーザー向けの目玉は「Workspace Studio」だ。
これはGmail・Docs・Sheets・Drive・Meet・Chatを横断するAIエージェントを、自然言語(日本語を含む)で記述するだけで構築・デプロイできるノーコードプラットフォームだ。エンジニアが関与せず、現場の担当者が自らワークフロー自動化を設定できる設計になっている。
プロダクトとして興味深いのは、「エージェント設計の民主化」がどこまで進むかだ。技術的な敷居を下げることで、これまで社内エンジニアへの依頼待ちだった自動化タスクがセルフサービス化する。一方でセキュリティ・ガバナンスの観点から、IT部門が「ユーザー作成エージェント」をどう管理するかは新たな課題となる。
エンジニア視点:本当に使えるものはどれか
カンファレンス発表には「今日使えるもの」と「ロードマップ上のもの」が混在する。エンジニアとして峻別しておきたい。
今日から検証できる可能性が高いもの: A2A 1.2(既存フレームワーク統合済み)、Gemini Workspaceの強化機能、Google Cloudの既存エージェント構築ツール群。
2026年後半〜2027年にかけて評価すべきもの: TPU 8i(一般公開タイムラインは未定)、Gemini Enterprise Agent Platformの本格的なエンタープライズ機能(SLAを含む)、Agentic Data CloudのクロスクラウドLakehouse統合。
$750Mのパートナー支援については、CursorのようなAIコーディングIDEを含む幅広いパートナーが対象だ。Googleのエコシステムに軸足を置く日本のSIer・ベンダーにとっては、エージェントAIプロジェクトの実費支援として活用できる可能性がある。
今後の注目点——A2AとMCPの統合標準化が業界を変える
Google Cloud Nextが示した方向性で最も長期的なインパクトを持つのは、A2Aプロトコルのエコシステム拡大だ。
Linuxファウンデーションが「Agentic AI Foundation」としてA2Aのガバナンスを担い始めており、特定企業の仕様ではなくオープンスタンダードとしての普及が期待されている。A2AとMCPが実質的な「エージェント通信の共通言語」になれば、現在各社が独自実装している接続コードの多くが不要になる。
エンジニアの視点では、次の12カ月はA2A対応のミドルウェア・オーケストレーターの実力を見極める時期だ。どのフレームワークがエンタープライズのニーズを最もよく捉えるかは、まだ決まっていない。あなたのプロジェクトに、A2Aを試す余地はあるか。
ソース:
- Agent2Agent protocol (A2A) is getting an upgrade — Google Cloud Blog(2026年4月)
- Google Cloud Next 2026: AI agents, A2A protocol, Workspace Studio — The Next Web
- Google Cloud Commits $750 Million to Accelerate Partners' Agentic AI Development — Google Cloud Press(2026年4月22日)
- AI infrastructure at Next '26 — Google Cloud Blog