デジタル庁は2026年3月6日、政府職員向けの生成AI基盤「源内(Gennai)」で試用する国産大規模言語モデル(LLM)7モデルを選定したと発表した。15件の応募から選ばれたこの7モデルは、2026年5月から全府省庁39機関、約18万人の公務員を対象とした大規模実証の中核を担う。
「源内」——その名前は「生成AI(Gen AI)」と、江戸時代の発明家・平賀源内に掛けたものだ。
選定された国産LLM 7モデルの全貌
15件の応募から選ばれた7モデルは、日本のAI企業の技術力を映し出している。
| モデル名 | 開発元 | パラメータ数 | 特徴 |
|---|---|---|---|
| CC Gov-LLM | カスタマークラウド | 非公開 | ガバメントクラウド上で閉域環境動作。機密性2情報に対応 |
| cotomi v3 | NEC | 約130億 | GPT-4比10倍の推論速度。AIエージェント「cotomi Act」はWebArenaで人間超え(80.4% vs 78.2%) |
| Llama-3.1-ELYZA-JP-70B | KDDI/ELYZA | 700億 | Meta Llama 3.1ベースに日本語ファインチューニング。日本語ベンチマークでGPT-4超え |
| PLaMo 2.0 Prime | Preferred Networks | 310億(8Bモデルも) | ハイブリッドSambaアーキテクチャ。構造的枝刈りで8Bモデルが100Bモデルの性能を実現 |
| Sarashina2 mini | ソフトバンク(SB Intuitions) | 700億 | 460Bパラメータの大型モデルから蒸留。2.1兆トークン以上で学習(日:英:Code = 5:4:1) |
| Takane 32B | 富士通 | 320億 | カナダCohere社と共同開発。JGLUE(日本語理解ベンチマーク)で世界最高スコア。オンプレミス対応 |
| tsuzumi 2 | NTTデータ | 300億 | H100 GPU 1枚で動作。GPT-3.5に対し81.3%の勝率。ドメイン適応に必要な学習データ量が10分の1 |
選定基準は9項目。国内開発であること、行政業務への実用性、デジタル庁の50問評価テストの成績、海外LLMとのベンチマーク比較、学習データの法的コンプライアンス、そして「機密性2情報」(政府の内部文書レベル)の処理能力が求められた。
「源内」の4層アーキテクチャ——内製にこだわる理由
「源内」は民間SaaSの導入ではない。デジタル庁AI実装総括班が内部で開発した、政府独自のプラットフォームだ。
| 層 | 役割 |
|---|---|
| インフラ層 | ガバメントクラウドの計算リソース |
| AIエンジン層 | マルチLLM選択・実行基盤(用途に応じてモデルを切り替え) |
| API層 | 各省庁の既存システムとの連携インターフェース |
| 行政アプリ層 | 20以上の専用AIアプリケーション |
すでに稼働中のアプリケーションには「国会答弁検索AI」(国会議事録から関連する過去答弁を検索)、「Lawsy」(法令横断検索・報告書生成)、「公用文チェッカーAI」(公用文作成ルールへの自動照合)などがある。
2025年5月のデジタル庁内パイロット(約1,200名対象)では、80%の職員が利用し、3カ月で6万5,000回以上の利用を記録した。
なぜ「国産」にこだわるのか——デジタル主権と440億円の投資
内製と国産LLMへのこだわりには明確な理由がある。
| 論点 | 背景 |
|---|---|
| 安全保障 | 政府の機密文書や国民の個人情報をOpenAIやGoogleのサーバーに送信するリスクの回避 |
| デジタル主権 | EU同様、AIにおける「技術的自律性」の確保 |
| 産業育成 | 政府が最大のユーザーとなることで国産LLM市場を底上げ |
| マルチベンダー | 特定1社への依存を回避。用途に応じた最適モデルの使い分け |
令和5年度補正予算ではAI基盤整備に440億円が計上された。デジタル庁全体の令和6年度予算要求額は6,143億円で、前年比29%増。過去最大の600億円超えとなった。
さらに上位の国家戦略として、経産省はAI・半導体関連に約1.23兆円(前年比約4倍)を投じる。ソフトバンクなど約10社との官民JV構想では、政府が5年で1兆円、ソフトバンクが6年で2兆円を投資し、1兆パラメータ規模の国産モデル開発を目指す。
世界の政府AIプラットフォームとの比較
18万人規模の政府AI導入は世界的にも最大級だ。
| 国 | プラットフォーム | 規模 | 状況 |
|---|---|---|---|
| 日本 | 源内 | 18万人・39機関 | 2026年5月実証開始。マルチLLM・20以上の専用アプリ |
| 英国 | Redbox → Humphrey | 約6,000人が利用 | Redboxは2025年12月に終了。各省庁がGoogle Gemini等に移行中 |
| シンガポール | PAIR / SENSE / SEA-LION | 各省庁で展開 | SENSEは保健省で政策レビュー期間を3カ月短縮。SEA-LIONは東南アジア言語対応の国産モデル |
| エストニア | Burokratt | 国家レベル | 行政サービス向けAIチャットボット。情報検索から許可申請に拡張中 |
| 米国 | 統一プラットフォームなし | 省庁ごと | ガバナンス枠組みは強いが採用は不均一。州レベルの実験が先行 |
英国のRedboxがわずか1年で終了した(「日の出と日没を経験した」と開発チーム自ら記述)のに対し、源内は内製アプローチで長期運用を前提としている点が異なる。
今後のロードマップと課題
| 時期 | マイルストーン |
|---|---|
| 2026年5月 | 全府省庁39機関への大規模実証開始 |
| 2026年8月 | 国産LLM 7モデルの本格統合 |
| 2027年1月 | 中間評価・検証結果の公開 |
| 2027年3月 | 大規模実証終了 |
| 2027年度 | 最優秀モデルの正式採用判断 |
最大の課題は、国産LLMの性能が海外の最先端モデルとどこまで競争できるかだ。NECのcotomi v3はGPT-4比10倍速の推論を実現し、ELYZAの日本語モデルはGPT-4をベンチマークで上回っている。しかし、汎用的な推論能力やマルチモーダル対応では、まだギャップがある。
それでも、この大規模実証から得られるフィードバックは、国産LLMの進化を加速させる。政府自身が「最大の顧客」となり、国産AI産業を育てる——源内は単なるツール導入ではなく、日本のAI戦略そのものだ。
出典・参考
- デジタル庁「国産LLM選定結果」(2026年3月6日)
- Japan Times「Digital Agency AI test May」(2026年3月7日)
- ITmedia「政府AI 7モデル選定」(2026年3月6日)
- OpenAI「Strategic Collaboration with Japan's Digital Agency」(2025年10月)
- 日経新聞「国会答弁AI 源内」
- NTT「tsuzumi 2プレスリリース」(2025年10月)
- PFN「PLaMo Translate政府AI源内への採用」(2025年12月)
