何が起きたのか
Anthropicは2026年3月10日、開発者向けコーディングツール「Claude Code」に新機能「Code Review」をリリースした。GitHubのプルリクエスト(PR)が作成されるたびに、複数のAIエージェントが自動的に起動してコードを解析し、バグ・脆弱性・エッジケースを検出する。
現在は「研究プレビュー」として、Claude TeamsおよびEnterpriseプランのユーザーに提供されている。
従来のリンター(静的解析ツール)がコードのスタイルやフォーマットを検査するのに対し、Code Reviewはロジックの正しさに焦点を当てる。コードが「動くかどうか」ではなく「正しく動くかどうか」を深く検証する設計だ。
マルチエージェントが動く仕組み
Code Reviewの中核は、複数の専門エージェントを並列で走らせるマルチエージェントアーキテクチャにある。
レビューの流れは次の5段階で進む。
1. トリガー ── PRの作成(またはプッシュ)を検知すると、Anthropicのインフラ上で自動的にレビューが起動する。開発者側の設定は不要だ。
2. エージェント群の並列探索 ── 変更されたコードだけでなく、リポジトリ全体のコンテキストを参照しながら、複数のエージェントがそれぞれ異なるクラスの問題を探す。大規模なPR(1,000行超)には多くのエージェントが割り当てられ、小規模なPR(50行未満)には軽量な処理が適用される。
3. 偽陽性フィルタリング ── 検出された候補バグは、検証ステップでコードの実際の振る舞いと照合される。このステップが、不要なノイズを排除する鍵になる。
4. 重要度ランキング ── 検証を通過した指摘は重複排除され、3段階の重要度でランク付けされる。
- 🔴 Normal ── マージ前に修正すべきバグ
- 🟡 Nit ── 修正推奨だがブロッキングではない軽微な問題
- 🟣 Pre-existing ── このPRで導入されたものではない既存バグ
5. コメント投稿 ── 結果はPRにインラインコメント+概要コメントとして投稿される。各指摘には折りたたみ式の「拡張推論」セクションが付属し、なぜその問題が指摘されたのか、どう検証されたのかを確認できる。
重要なのは、Code ReviewはPRの承認やブロックを行わない点だ。既存のレビューワークフローはそのまま維持される。
Anthropic社内での導入実績
Anthropicは自社のエンジニアリングチームでCode Reviewを運用し、その効果を数値で示している。
もっとも印象的なのは、ある1行の変更から本番サービスの認証バイパスにつながるバグを検出した事例だ。通常であれば「1行の変更」として簡単に承認されがちな差分だが、Code Reviewがこれを重大な問題として検出した。担当エンジニアは「自力では見つけられなかっただろう」と振り返っている。
セットアップとカスタマイズ
初期設定
管理者が3ステップで設定を完了できる。
- Claude Code管理画面でCode Reviewセクションを開く
- GitHubアプリをインストールし、対象リポジトリを選択
- リポジトリごとにレビュートリガーを設定
トリガーは2種類から選べる。
| トリガー | 動作 | コスト |
|---|---|---|
| PR作成時のみ | PRのオープンまたはready for reviewの時点で1回実行 | 低い |
| プッシュごと | コミットのたびに実行。修正済みスレッドの自動クローズ付き | PR作成時のみ × プッシュ回数 |
CLAUDE.md / REVIEW.md によるカスタマイズ
Code Reviewの指摘内容は、リポジトリに配置する2つのファイルでカスタマイズできる。
CLAUDE.md ── Claude Code全体の共有プロジェクト指示。Code Reviewだけでなく、インタラクティブセッションにも適用される。新しく導入された違反はnit(軽微)レベルの指摘として報告される。
REVIEW.md ── レビュー専用のガイドライン。チームのスタイルガイド、フラグすべき項目、スキップすべき項目を記述する。
料金と対応プラン
| 項目 | 内容 |
|---|---|
| 対象プラン | Teams / Enterprise(研究プレビュー) |
| 課金方式 | トークン使用量ベース |
| 平均コスト | $15〜25 / レビュー(PR規模に応じて変動) |
| 平均レビュー時間 | 約20分 |
| 月次上限 | 管理画面で設定可能 |
| 分析ダッシュボード | レビュー数・週次コスト・フィードバック・リポジトリ別内訳 |
コストはAnthropic請求書に計上され、AWS BedrockやGoogle Vertex AIでの利用分とは別に請求される。
AI生成コード時代のレビューをどう変えるか
AIによるコード生成が普及するにつれ、レビューの負荷は増大の一途をたどっている。GitHub Copilotやclaude Codeのようなツールが大量のコードを生成する一方で、そのコードの品質を担保するのは依然として人間のレビュアーだ。
Code Reviewは、この「AIが書いたコードをAIがレビューする」という新しいレイヤーを提案している。これは人間のレビューを置き換えるものではなく、人間が見落としがちな深い論理エラーをキャッチする補助的な存在として位置づけられている。
また、ローカルでの事前レビューには code-review プラグインも用意されており、PRを開く前にターミナルからオンデマンドでレビューを実行できる。GitHub ActionsやGitLab CI/CDとの統合も可能だ。
ソース:

