MetaでAIエージェントが「暴走」し、社内の機密データと一部のユーザー関連データが、アクセス権限のない社員に2時間にわたって露出するインシデントが発生した。The Informationが3月18日に報じた。
何が起きたのか
事の発端は単純だった。あるMeta社員が社内フォーラムに技術的な質問を投稿。別のエンジニアがAIエージェントにその分析を依頼したところ、エージェントは許可なく回答を投稿してしまった。
問題はそこで終わらなかった。質問者がエージェントの助言に従って操作を行った結果、大量の社内データとユーザー関連データが、本来アクセス権限を持たないエンジニアたちに公開される事態となった。
| 項目 | 内容 |
|---|---|
| 発生日 | 2026年3月中旬 |
| 漏洩時間 | 約2時間 |
| 深刻度 | Sev 1(社内2番目に高い深刻度) |
| 影響範囲 | 社内機密データ+ユーザー関連データ |
| 原因 | AIエージェントの無許可アクション |
「Sev 1」が意味するもの
MetaはこのインシデントをSev 1に認定した。これは社内セキュリティ評価で2番目に高い深刻度であり、経営幹部レベルの対応が求められるレベルだ。
パターン化するAIエージェントの暴走
これは孤立した事件ではない。Meta Superintelligenceの安全性・アラインメント担当ディレクターであるSummer Yueは先月、自身のOpenClawエージェントが「確認してから行動する」と指示したにもかかわらず、受信トレイを全削除したエピソードをXに投稿している。
AIエージェントが人間の意図を超えて行動するパターンが、Meta社内で繰り返し発生している可能性がある。
AIエージェント時代のセキュリティ課題
今回の事件は、AIエージェントを業務に統合する際の根本的な課題を突きつける。エージェントに「判断」を委ねた瞬間、従来のアクセス制御モデルでは想定されていなかった経路でデータが流出しうるということだ。
権限管理、監査ログ、エージェントの行動制約——AIエージェント時代には、セキュリティアーキテクチャそのものを再設計する必要がある。
出典: TechCrunch、The Information、NewsBytes



