Hy3 Previewの技術的背景
Hy3 Previewは「Hunyuanシリーズ」の再構築版だ。 テンセントのチーフAIサイエンティスト・Yao Shunyu(姚舜宇)氏が主導し、2026年2月にプレトレーニングと強化学習スタックをフルリビルドした。 それから約3カ月でオープンソース公開に至っている。
技術的な特徴を整理すると:
- 総パラメータ数295B、アクティブ21B(MoEの特性)
- SWE-bench 74.4%、前モデル比+21.4ポイント
- 中国LLM比較: GLM-5(77.8%)にわずかに届かず、Kimi-K2.5(76.8%)をわずかに上回る
- コンテキスト256Kトークン(コードベース全体を1プロンプトで処理可能)
- エージェント型タスクでの性能強化を特に重点置いた設計
MoEアーキテクチャは「Hybrid Attention Architecture」と呼ばれる独自技術を採用。 リーズニング・コーディング・指示追従において従来の密結合モデルより効率的な推論を実現するとテンセントは主張している。
AI研究者として読む技術的意義
AI研究の観点から、Hy3 Previewで特に注目すべき点は3つある。
一つ目は「完全再学習(Full Rebuild)」の成果だ。 3カ月で295Bモデルをゼロから学習し直してSWE-benchmark 74.4%を実現したことは、テンセントのインフラとデータ品質の水準を示している。 DeepSeek V4が1.6Tパラメータという圧倒的規模で公開されたのと対照的に、Hy3 Previewは「効率的な小型MoE」という方向性だ。
二つ目は「オープンソース戦略」の計算だ。 テンセントはWeChat・ゲーム・広告という収益モデルを持ち、LLMの収益化はメインビジネスではない。 オープンソース公開により、グローバルの開発者コミュニティが採用するエコシステムを構築しつつ、テンセントクラウドでの推論サービス展開を後押しする戦略だ。
三つ目は「元OpenAI研究者」の活用だ。 テンセントは2025年後半から複数のOpenAI・Google DeepMind出身研究者を採用している。 Yao Shunyu氏はStanford大学で強化学習を研究した後OpenAIで活躍したことで知られる。 彼らの知見がHy3 Previewのアーキテクチャ設計に生かされているとされる。
中国LLM競争の現在地
2026年4月時点での中国主要LLMのSWE-bench比較:
| モデル | 企業 | SWE-bench | 備考 |
|---|---|---|---|
| Hy3 Preview | テンセント | 74.4% | MoE 295B、オープンソース |
| GLM-5 | 智譜AI | 77.8% | |
| Kimi-K2.5 | 月之暗面 | 76.8% | |
| DeepSeek-V4 | DeepSeek | 公開未定 | 1.6Tパラメータ |
中国のAI競争は「性能トップを目指すフラッグシップ競争」と「効率的なオープンモデルの普及競争」の二層構造になっている。 Hy3 Previewは後者の路線でグローバルへの普及を狙う。
対して米国モデルは:
- GPT-5.5: SWE-bench 88.7%(クローズド、$5/$30 per million tokens)
- Claude Opus 4.6: 80.8%(クローズド)
中国LLMとの性能差は縮まっているが、まだ米国フロンティアモデルが優位な水準にある。
知識蒸留問題との関連
AI研究者が注目する別の文脈がある。 OpenAI・Anthropic・Googleは2026年4月初旬、中国企業による「アドバーサリアル蒸留(adversarial distillation)」——米国モデルへのAPIアクセスを通じて知識を抽出し自社モデルを強化する行為——への共同対抗措置を発表した。
Anthropicによれば、3社の中国企業だけで1600万件の異常なAPIコールを確認し、2万4000件の不正アカウントを使った事例があるという。
Hy3 Previewがどの程度この「蒸留」を活用しているかは不明だ。 テンセントは自社データと研究者の内製技術によるフルビルドを強調している。 ただし業界全体として、オープンなAPIが持つリスクと、技術普及の恩恵のバランスをどう取るかは、AI研究コミュニティの重要な問いとなっている。
日本の研究機関・企業への示唆
Hy3 Previewの公開は、日本の研究者・エンジニアにとって無視できない選択肢が増えたことを意味する。
オープンソースの295Bモデルを自社インフラで動かすことができる組織には、ファインチューニングと独自データ活用の余地が広がる。 プライバシー要件が厳しい医療・法務・金融の領域では特に意味を持つ。
一方で256Kトークンの推論には相当のGPUメモリが必要だ。 MoEアーキテクチャのデプロイには専用の最適化が求められる場合もある。
「使いやすいオープンソースLLM」としてLlama系が定番だった市場に、中国製フラッグシップMoEが本格参入した。 この動きは今後どんな影響をもたらすのか——AI研究の次の局面が見え始めている。
ソース:
- Tencent launches AI model Hy3-preview after hiring OpenAI researcher — Cybernews(2026年4月24日)
- Tencent Hy3 Preview: First Model From the Hunyuan AI Rebuild in 2026 — Techi.com(2026年4月)
- Tencent Unveils New AI Model to Close Gap With Rivals — Caixin Global(2026年4月23日)
- Tencent's New Hy3 AI Model Is the Most Efficient Chinese LLM No One's Talking About — Decrypt(2026年4月)