EU AI法とは何か——段階的適用の全体像
EU AI法は2024年8月に発効した、世界初の包括的AI規制法だ。
リスクの高さに応じてAIシステムを四段階(許容不可・高リスク・限定リスク・最小リスク)に分類し、それぞれに異なる義務を課す構造を持つ。許容不可リスクのAI(政府による大量監視AIなど)は即時禁止、高リスクAIには適合評価・文書化・人間による監督などの義務が課される。
当初の適用スケジュールは段階的で、高リスクAIへの義務は2026年8月から適用される予定だった。今回の改正案はこれを2027年12月まで約16か月延期するものだ。
延期の理由は複数ある。まず、EU加盟国や企業側の準備が追いついていないという実態がある。特に中小企業や公的機関では、適合評価プロセスのリソース確保が困難だとの声が多い。次に、AIコードオブプラクティス(任意行動規範)の策定がまだ進行中であることも一因だ。
ウォーターマーク義務化の延期が示すもの
AI生成コンテンツへのウォーターマーク(透かし)義務化が2026年11月まで猶予されたことは、技術的な準備と政策立案の間にある大きなギャップを示している。
EU AI法第50条は、AIが生成した音声・画像・動画・テキストコンテンツに対して、「AI生成であることを示す表示」を義務付けることを定めている。これは「ディープフェイク」や「AIプロパガンダ」への対策として重要な条項だ。
しかし実装上の課題は複数ある。まず、テキストへのウォーターマークは音声・画像に比べて技術的に難しい。出力されたテキストを少し変更するだけで透かしが消えてしまう問題がある。Anthropicはモデル出力に暗号学的なウォーターマークを組み込む研究を進めているが、業界全体での標準化にはまだ時間がかかる。
次に、生成AIと人間の共同作業によるコンテンツ(一部AIが書き、人間が編集した文章など)をどう扱うかというグレーゾーン問題がある。EU AI法の任意行動規範(Code of Practice)の第二草案(欧州委員会が2026年4月に公開)では、この点をめぐって議論が続いている。
米国「AI基盤モデル透明化法」の内容と意義
一方、米国では2026年3月26日に超党派の議員グループが「H.R.8094:AI Foundation Model Transparency Act of 2026」を提出した。
この法案は、一定規模以上の大規模AIモデルの開発者に対して、次の四点の公開情報開示を義務付けるものだ。訓練データの内容・モデルの設計目的・既知の限界とリスク・評価・監視手法だ。
EUのAI法が「リスク分類に基づく義務」を課すのに対し、米国の透明化法案は「情報の非対称性の解消」にフォーカスしている。研究者・規制当局・一般市民が、AIモデルの内部をより理解できるようにすることで、事後的な問題発見と是正を促そうという設計思想だ。
同じ3月には、ニューヨーク州のホークル知事が「RAISE法(Responsible AI Safety and Education Act)」に署名し、同法は3月19日から施行されている。RAISE法は「フロンティアAIモデル」の開発者に対して、透明性・コンプライアンス・安全性・報告の各義務を課すものだ。米国においても州レベルでの規制先行という構図が明確になっている。
法務・ポリシーの視点——「規制収斂」と「規制分岐」の同時進行
EUと米国のAI規制の動向を法務・ポリシーの観点から分析すると、「収斂」と「分岐」が同時に進行していることがわかる。
「収斂」している点は「透明性」の重視だ。EUのウォーターマーク義務化、米国の透明化法案、ニューヨーク州のRAISE法、いずれも「AIシステムの内部と出力について、社会が知る権利がある」という原則を共有している。
一方「分岐」しているのは「規制の粒度と強制力」だ。EUは事前の適合評価・文書化・人間の監督という「ゲートキーパー型」の規制を採用している。米国の透明化法案は情報開示を義務化するものだが、EUの高リスクAIへの「事前審査」ほど強制的なメカニズムは持たない。「規制の速度」においても、EUが包括的な法律を先行させているのに対し、米国は産業界のイノベーションを妨げないよう「ライトタッチ」なアプローチを志向する傾向が続いている。
AnthropicがKYC本人確認を導入したこと(詳細記事)や、Claude Mythosの一般公開を見送った判断(背景の解説)は、規制当局の動向を意識した企業側の自主的なリスク管理の一環と見ることができる。
企業コンプライアンスへの影響——EU域内でビジネスをする日本企業
EU AI法は域外適用が及ぶ法律だ。
EU域内でAIシステムを使用・販売・導入する企業は、企業所在地にかかわらず規制の対象となる。日本の大手企業でEU市場に展開しているところは、AI法への準拠が必要になる。
具体的な影響が大きい分野を挙げると、採用・人事評価にAIを活用している企業(高リスクAIに分類)、医療診断AIを提供している企業(高リスクAI)、金融分野でのAIスコアリング(高リスクAI)などだ。これらの領域では、適合評価プロセスの準備に少なくとも12〜18か月が必要とされる。
高リスクAI義務の適用が2027年12月に延期されたことは、準備期間として追加の猶予を与えるものだが、「延期があるから後回しでよい」という判断は危険だ。EU AI法への準拠体制の構築は、2026年中に着手し始めることが実務上の推奨とされている。
今後の注目点——2026年11月のウォーターマーク施行と国際標準化の行方
当面の最も重要なマイルストーンは、2026年11月のAI生成コンテンツウォーターマーク義務化だ。
この時点でEU企業・EU域内でサービスを提供するグローバル企業は、AI生成コンテンツに対して何らかの「AI表示」の仕組みを実装しなければならない。技術的な解決策として、C2PA(Coalition for Content Provenance and Authenticity)の規格が業界標準の候補になっている。Google、Microsoft、Adobe、Anthropicなどが参加するこの業界団体の動向も注視が必要だ。
「AIが生成したコンテンツとは何か」という問いは、哲学的なものでもある。生成AIと人間の共同作業が当たり前になる中、AIの関与度をどう測定し、どう開示するかという規制設計の難しさは増すばかりだ。あなたは「AI表示義務」に賛成するか、それとも表現の自由や利便性を優先すべきと考えるか。
ソース:
