Anthropicのコンテンツ管理システムの設定ミスにより、同社が開発中の未発表AIモデル「Claude Mythos(内部コードネーム:Capybara)」の存在と詳細が2026年3月26日に明らかになった。 米メディアFortune紙が報道した後、Anthropicは当該データストアへのアクセスを遮断したが、一時的に公開状態にあった内部文書には、モデルの能力評価と前例のないサイバーセキュリティリスクに関する詳細な記述が含まれていた。
漏洩の経緯——「人為的ミス」が約3,000点の未公開資産を公開状態に
漏洩の発端は、Anthropicのコンテンツ管理システムの設定ミスだった。
約3,000点の未公開アセットと複数の草稿ブログ投稿が、暗号化されていない公開検索可能なデータストアに誤って配置された状態になっていた。
その中に「Claude Mythos」の能力評価を詳述した草稿ブログ投稿が含まれており、Fortune紙が内容を確認してAnthropicに通知した後、同社はすぐにデータストアへのアクセスを遮断した。
Anthropicの広報担当者は「これは人為的ミスによるものであり、意図的な情報開示ではない」とコメントした。
同時に、モデルの存在自体は認め、「これまで我々が構築した中で最も能力の高いモデルであり、性能における段階的な飛躍を意味する」と述べた。
内部文書によれば、モデルの内部コードネームは「Capybara」で、正式リリース名称が「Claude Mythos」となる見込みだという。
現時点では社内テスト段階にあり、外部への一般公開は行われていない。
Anthropicがどの段階で漏洩に気づき、内部での対応フローがどのようなものだったのかは公表されていない。 ただし、外部メディアに指摘されて初めて遮断措置を取ったという事実は、セキュリティ体制への問いを残している。
現行最上位モデルを超える能力——コーディング・推論・セキュリティで「段階的飛躍」
漏洩した草稿に含まれた評価データによれば、Claude Mythosは現在Anthropicの最上位モデルである「Claude Opus 4.6」を各種ベンチマークで大幅に上回っている。
草稿に明示されていた評価分野は主に以下の3つだ。
| 評価分野 | 評価内容の概要 |
|---|---|
| ソフトウェアコーディング | 複雑なプログラムの生成・デバッグ・リファクタリングにおいて飛躍的に向上 |
| 学術的推論 | 数学・自然科学・論理的問題への解答精度が大幅に向上 |
| サイバーセキュリティ | ソフトウェアの脆弱性発見・悪用に関する能力が劇的に向上 |
Anthropicが公開するモデルの中で、サイバーセキュリティ評価において「劇的な向上」が記録されたのは今回が初めてとされる。
同社は内部文書に「このモデルの能力水準は、既存のAIが提供するサイバー攻撃支援のレベルを根本的に変える可能性がある」と明記していた。
コーディング能力については、特に「OSWorld」などのデスクトップタスク自動化ベンチマークでも既存モデルを超えるスコアが示されていたとも伝えられている。
推論能力の向上は、AIモデルが「単なる補助ツール」から「高度な知的作業の主体」へと変容する次の段階を示す指標とも言える。
これらの能力向上が複合的に組み合わさることで、Claude Mythosが実現する作業の自律性は、Claude Opus 4.6を大きく超えるものになると評価されている。
サイバーセキュリティ株が急落——市場が「AI脅威の質的変化」に反応
漏洩報道を受け、2026年3月27日の株式市場ではサイバーセキュリティ銘柄が大幅に下落した。
CrowdStrike、Palo Alto Networks、SentinelOneなどの主要セキュリティ企業の株価が一時3〜5%の下落を記録した。
投資家が懸念したのは「AIが既存のセキュリティ産業の前提を根底から覆す可能性」だ。
現在のAIモデルでも一定のサイバー攻撃支援は可能だが、Claude Mythosが示唆する能力水準はそれを「質的に異なるレベル」に引き上げるとされる。
従来は高度なスキルを持つ攻撃者にしか実行できなかったゼロデイ脆弱性の発見や、複雑なエクスプロイトの自動生成が、AIの支援によって「大衆化」する可能性がある。
これはセキュリティ防御側の構造にも直接的な影響を与える問題だ。
現在のセキュリティ製品の多くは、「人間の攻撃者は時間と技術が限られている」という前提に立って設計されている。 AIが攻撃の速度と精度を劇的に引き上げた場合、その前提は成り立たなくなる。
一方でこの能力は防御的な活用にも強力だ。 セキュリティ研究者がAIを使って自社システムの脆弱性を迅速に発見・修正できるという側面もある。
ただし防御と攻撃が同一の能力を基盤としている以上、悪意ある行為者も同じツールを悪用できる。 いわゆる「デュアルユース」問題が、フロンティアAIの能力向上と比例して深刻化している。
Anthropicの「責任あるAI開発」が問われる局面
今回の漏洩はAnthropicの開発哲学に対しても複雑な問いを突きつけている。
Anthropicはこれまで「責任あるAI開発(Responsible Scaling)」を旗印に掲げ、AI安全研究への投資と能力評価の徹底を業界の規範として推進してきた。
2023年に公表した「責任ある能力向上ポリシー(RSP)」では、特定の能力閾値を超えたモデルに対して追加的な安全評価を実施するとしている。
今回の漏洩文書に「前例のないサイバーセキュリティリスク」という表現が含まれていた事実は、Claude Mythosがその閾値に達したか、あるいは接近しているモデルである可能性を示唆している。
Anthropicが現在直面している問いは、業界全体にとっても本質的なものだ。 モデルの能力が「段階的飛躍」を遂げたとき、そのリリースをどのような条件で正当化するか。
同社が今後Claude Mythosをどのような安全対策のもとで公開するのか、あるいはリリース自体を見送るのかはまだ明らかになっていない。
フロンティアAIの競争が激化する中でも、Anthropicが「安全優先」の原則を貫けるかどうかは、業界全体の安全基準の行方を左右する試金石となる。 今回の漏洩が意図せず問いかけたのは、テクノロジーの力と責任の間で、人間はどこに線を引けるのか——その問いだ。
ソース:
- Exclusive: Anthropic 'Mythos' AI model representing 'step change' in power revealed in data leak — Fortune(2026年3月26日)
- Anthropic accidentally leaked details of a new AI model that poses unprecedented cybersecurity risks — Fortune(2026年3月27日)
- Anthropic data leak reveals powerful, secret Mythos AI model — Fortune(2026年3月27日)
- Cybersecurity stocks plunge as Anthropic's 'Claude Mythos' leak sparks AI fear — Investing.com(2026年3月27日)