何が変わったのか——導入の経緯と認証フロー
2026年4月14日、Anthropicはユーザーへの事前通知なしに本人確認ポリシーを公開した。
認証フローは、政府発行の写真付き身分証明書(パスポートや運転免許証)をアップロードし、スマートフォンまたはPCのカメラでセルフィーを撮影するというものだ。
認証サービスには「Persona」と呼ばれる第三者企業が使われており、身分証明書とセルフィーのデータはAnthropicのシステムには保管されない。
ただしAnthropicは必要に応じてPersonaのプラットフォームを通じて認証レコードにアクセスできるという。
Anthropicは「収集する情報は必要最小限に限定し、AIモデルの訓練には使用しない」と強調している。
しかし、どのユースケースが認証対象となるかについては明確にされておらず、ユーザーの間に不安が広がっている。
大人のユーザーが未成年扱いに——想定外の誤検知問題
公開直後から、一部の成人ユーザーが「未成年者」として誤判定され、アカウントを停止されるという問題が報告された。
「Anthropicが自分を子どもだと認識し、アカウントをロックした」という投稿がSNSに相次ぎ、当該ユーザーたちは大きな混乱に陥った。
Medianama等の報道によると、正当な成人ユーザーが身分証明書を持っているにもかかわらず、確認プロセスの不具合によって不当に制限を受けるケースが続出した。
これは単なるUXの問題ではなく、「AIがユーザーを誤って分類したとき、人間はどう救済されるのか」という問いを突きつけている。
AI研究者の観点から見れば、この誤検知問題はきわめて示唆的だ。
高精度を誇るとされる認証システムですら、エッジケースにおいては予期しない判断ミスを起こす。
その被害が実際のユーザーの権利制限という形で現れたとき、「AI+KYCの組み合わせのリスク」が浮き彫りになる。
なぜ今、身分確認が必要なのか——AI安全性の観点から
AnthropicがKYCを導入した背景には、AIの悪用問題がある。
生成AIが成熟するにつれ、なりすまし、未成年者への有害コンテンツ提供、サイバー攻撃の自動化など、特定ユーザー属性に紐づく悪用リスクが顕在化してきた。
特に注目されるのは、Anthropicが同月にリリースした「Claude Mythos Preview」との関連性だ。
Mythosは数千件のゼロデイ脆弱性を自律発見できるほどの能力を持ち、一般公開が見送られた経緯がある(参照: Anthropic「Claude Mythos」が数千のゼロデイ脆弱性を発見)。
こうした高リスクなAI能力へのアクセスをコントロールするために、ユーザーの身元確認は論理的な次のステップだと言える。
また、Anthropicは同時期にClaude Opus 4.7をリリースし、高度なサイバーセキュリティ機能については「正規のセキュリティ専門家向け認証プログラム」への申請を求めている(参照: 徹底カイボウ|Claude Opus 4.7)。
KYCはこの「認証によるアクセス管理」という大きな方針の一端だ。
AI研究者が見る本人確認の技術的意義
AI研究の観点から、今回のKYC導入は複数の意味を持つ。
第一に、AIシステムが「匿名のインターネット」から「実名・実在のインターネット」への移行を推進する動きだ。
これまでのAIサービスはメールアドレスがあれば誰でも使えた。しかし、AIの能力が人間の専門家に匹敵するレベルに達した今、「誰が使うか」を問わないことには大きなリスクが伴う。
第二に、KYCは「差別化されたアクセス層」の創出を可能にする。
身分確認済みのユーザーには高度な機能を開放し、未確認ユーザーは基本機能のみに制限するという多層的なサービス設計が実現できる。
これはAIの安全性とビジネスモデルの両方に寄与する構造だ。
第三に、Personaのような第三者サービスを使うことで、「プラットフォームがユーザーデータを大量に保有しない」という分散型のリスク管理が実現している。
ただし、Personaというシングルポイントへの依存がそれ自体の脆弱性になり得る点は、引き続き注視が必要だ。
プライバシー・規制との緊張関係
一方で、KYC導入はプライバシー権との深刻な緊張関係を生む。
AIチャットサービスに生体情報(セルフィー)と政府発行書類を提出させることへの抵抗感は、ユーザーの間で決して小さくない。
GDPRが適用されるEUのユーザーや、個人情報保護に対して高い意識を持つユーザー層にとっては、「なぜAIサービスに顔写真と身分証が必要なのか」という疑問は正当だ。
日本においても、個人情報保護法の観点から「生体情報の第三者提供」には厳格な同意取得が求められる。
グローバルにサービスを展開するAnthropicが、各国の規制にどう対応するかは今後の大きな課題となるだろう。
今後の注目点——業界標準になるのか
Anthropicの今回の動きが業界標準となる可能性は十分ある。
AIの能力がさらに高度化し、「誰が使っているか」の重要性が増す中で、OpenAI、Google DeepMind、Metaなどの競合も何らかの形でユーザー認証を強化していく可能性が高い。
問題はその実装の精度だ。
今回のAnthropicの事例が示したように、認証システムの誤検知は実際のユーザーに実害をもたらす。
「AI+KYC」が業界標準として定着するためには、誤検知への救済プロセスの透明化と、プライバシーへの配慮が不可欠となる。
あなたが使うAIサービスに、将来「身分証を提出してください」という画面が現れたとき、あなたはその要求を受け入れるだろうか。
それとも、匿名性を守るために別のサービスへ移るだろうか。AIと人間の関係性の新しい問いが、今始まっている。
ソース:
- Anthropic starts checking ID for some Claude users — The Register(2026年4月16日)
- Anthropic tests user trust with ID and selfie checks for Claude — Help Net Security(2026年4月16日)
- Anthropic will ask Claude users to verify their identities for a few use cases — Engadget(2026年4月16日)
- Anthropic flags adult Claude users as minors, suspends accounts — MediaNama(2026年4月16日)
- Identity verification on Claude — Claude Help Center
