出典
本記事で使用したデータおよび引用は、各社公式発表、SEC提出書類、Bloomberg、Reuters、TechCrunch等の一次情報源に基づいています。
※本記事の情報は2026年3月時点のものです。
当サイトでは、サービス改善のためにCookieを使用しています。詳しくはプライバシーポリシーをご覧ください。

2020年、OpenAIの内部でAIの安全性をめぐる深刻な対立が生まれていた。研究担当副社長のDario Amodeiを含む7人の研究者は、組織の方向性に限界を感じ、OpenAIを去ることを決断する。
彼らが2021年に設立したAnthropicは、Public Benefit Corporation(公益法人)という法人形態を選択。「Constitutional AI(憲法AI)」という独自のアプローチでAI安全性に取り組み、能力と安全性の両立を掲げる稀有な企業として注目を集めた。
FTX破綻による最大出資者の喪失という逆境を乗り越え、Amazon・Google・Microsoft・Nvidiaなど世界有数の企業から累計640億ドルの資金を調達。2026年2月には評価額3,800億ドル、ARR140億ドルという驚異的な成長を遂げ、「歴史上最速のソフトウェア企業」と呼ばれるまでに至った。
しかし、急成長と安全性の両立という根本的な問いは、まだ答えが出ていない。
以下のビジュアルストーリーで、Anthropicの創業から現在までの軌跡を詳しく読み解く。
OpenAIから離れた7人のうち、中心にいたのはDario AmodeiとDaniela Amodeiの兄妹だった。Darioは物理学の博士号を持つ研究者として、GPT-2・GPT-3のスケーリング則研究を主導した人物。Danielaはオペレーションと組織運営の専門家で、Stripeで経営基盤を作ってきた経歴を持つ。
| 創業メンバー(一部) | 背景 |
|---|---|
| Dario Amodei | CEO、元OpenAI研究担当VP |
| Daniela Amodei | President、組織運営とガバナンスの責任者 |
| Tom Brown | GPT-3論文の筆頭著者 |
| Sam McCandlish | スケーリング則研究の中心 |
| Jared Kaplan | 物理学者、スケーリング則の提唱者 |
| Jack Clark | 元OpenAI政策担当 |
| Chris Olah | ニューラルネット解釈可能性研究 |
技術と運営の両輪を握る兄妹、スケーリング則を深く理解する研究者、解釈可能性を追う科学者——多様な背景の7人が、同じ時期にOpenAIを離れたことが、設立直後のAnthropicに厚みを与えた。
Anthropicが法人形態に選んだ「Public Benefit Corporation」は、株主利益だけでなく公益も目的に据える形式だ。通常の営利会社では、経営陣が株主価値の最大化義務を負う。公益法人化することで、短期の利益より長期の社会的影響を重んじる判断が、法的にも擁護される。
AI開発において「安全性」を優先するには、資金と責任の両方が必要だ。Anthropicはこの構造を、設立時点から組み込んだ。
| 仕組み | 役割 |
|---|---|
| Constitutional AI | モデルに原則を与え、自身の出力を評価・修正させる |
| Responsible Scaling Policy | 能力が一定水準を超えた場合に追加評価を義務付ける自主規制 |
| Red Teaming | 社内外の専門家による悪用シナリオの検証 |
| Interpretability研究 | モデル内部の挙動を可視化する科学的取り組み |
これらの仕組みは、安全性を「スローガン」ではなく「検証可能なプロセス」に落とし込むための工夫だ。公開された文書をベースに、外部から批判・改善提案を受ける姿勢が、Anthropicの信頼感を支えている。
| 年 | 主な出来事 |
|---|---|
| 2021 | 創業、シリーズA 1.24億ドル |
| 2022 | FTX・Alameda Researchが約5億ドル出資 |
| 2023 | Google・Salesforceが出資、Amazonとの提携(40億ドル) |
| 2024 | Amazon追加出資、累計80億ドル規模 |
| 2025〜 | 評価額1,000億ドル超、AIインフラ企業との複数提携 |
AIモデルの学習に必要な計算資源は、数千億円単位の投資を要する領域になっている。Anthropicは、AWSを主要クラウドに据えながら、GoogleのTPUもハイブリッドで使う二枚の足場を確保した。単一クラウドへの依存リスクを避ける姿勢は、FTX破綻の経験から学んだ教訓でもある。
Anthropicの研究成果は、Claudeシリーズとしてプロダクト化されている。個人向けのchat.anthropic.com、開発者向けAPI、エンタープライズ向けのClaude for Business、そしてAmazon BedrockやGoogle Cloud経由でも提供されている。
特に2024〜2026年にかけては、コーディングエージェントClaude Codeがエンジニアの開発現場に深く入り込み、「AIと一緒にコードを書く」体験を一気に普及させた。モデルの性能だけでなく、ツール利用とエージェント性で差別化する戦略が、実を結んでいる。
Anthropicは、創業期から掲げた「安全性と能力の両立」を、規模が桁違いになった現在も維持できるかを問われている。
一つ目は、AGIに近づくモデルをどう扱うか。二つ目は、政府・軍・規制の厳しい産業との関係。三つ目は、資本市場のプレッシャーのなかでResponsible Scaling Policyをどこまで強く運用できるか。
7人が掲げた理念が、3,800億ドル規模の企業でどう生き続けるのか——そこが、Anthropicの次の章になる。
Anthropicの日本での浸透は、AWS Japanを経由するBedrock経由の利用から始まり、2025年以降は直接契約のエンタープライズも増えつつある。金融、保険、行政、通信、教育など、厳格なガバナンスを求める業界でClaudeが採用されるケースが続いている。
| 業界 | 主な用途 |
|---|---|
| 金融 | RFP要約、コンプライアンス文書生成、リスクレビュー |
| 行政 | 議事録作成、住民問い合わせ対応、条例文書の整理 |
| 教育 | 教材の個別化、学習進度の自動分析 |
| ソフトウェア | Claude Codeによるコード生成・レビュー・保守 |
特にClaude Codeは、国内のスタートアップから大企業まで開発現場への浸透が急速で、「AIと対話しながらプロダクトを書く」という働き方を定着させつつある。日本語の指示理解、ドキュメント整形、テスト作成までの一連のワークフローで、開発者の生産性を押し上げる実例が積み上がっている。
Anthropicが公表しているResponsible Scaling Policyには、モデルの能力が一定水準を超えた場合に発動される段階的なリスク管理が書き込まれている。AI Safety Level 1〜4というレベル分けは、現時点でAI業界が持つ最も具体的な安全運用フレームワークの一つだ。
AGIに近いモデルの挙動、悪用リスク、社会的影響——これらを「将来の話」ではなく「今から設計する対象」として扱う姿勢は、Anthropicの創業理念の核でもある。能力と安全の両立が、7人の決断から始まった物語の、未完の章であり続ける。
本記事で使用したデータおよび引用は、各社公式発表、SEC提出書類、Bloomberg、Reuters、TechCrunch等の一次情報源に基づいています。
※本記事の情報は2026年3月時点のものです。
このような記事を毎週お届けします
メールアドレスだけで登録完了。いつでも解除できます。
週刊テックニュースレター
メールアドレスだけで登録完了。いつでも解除できます。
会員登録すると、いいね・ブックマーク・コメント機能もご利用いただけます
POPOPO、リリース2週間の通信簿|App Store 1位から「過疎化」まで、数字で読み解くリアル
AI駆動型国家への構造転換──自民党「AIホワイトペーパー2.0」が示した日本の勝ち筋
『人文知は武器になる』が巻き起こした議論——なぜ今、ビジネスと人文学の"距離感"が問われるのか
Claude Code使うなら、CursorとVS Codeどっちが正解? 開発体験・コスト・セットアップを徹底比較
米AIデータセンターの40%が2026年に遅延——電力・資材・人材の三重苦がインフラの現実を露わにする
図解で読むAnthropicの議論で見落とされがちなのは、Anthropicが生み出す新しい関係性の形。 技術は単なるツールではなく、OpenAIを根本から変える力を持っている。 批評家として言えば、変化を恐れるのではなく、変化の中で何を守り何を手放すかを考えたい。 この記事は、そういう思考の入り口としてとても良いと思う。
人類学者としてAnthropicの議論を見ていて面白いのは、図解で読むAnthropicに対する人々の感情的な反応の多様さ。 OpenAIへの態度は、その人の置かれた社会的文脈によって大きく異なる。 この多様性こそが、画一的な技術決定論では捉えきれないリアリティだと思う。 当事者の声をもっと丁寧に聞いていく必要がある。
図解で読むAnthropicを追ってきたライターとして、この記事の切り口は新鮮だった。 Anthropicについては以前取材したOpenAIも同様のことを言ってたのを思い出す。 業界の空気感として、ここ数ヶ月で確実に潮目が変わってきてる印象がある。 次はぜひ当事者の声も含めた深い記事を読みたい。
※ 一部のコメントはAIが記事内容を分析し、専門家の視点をシミュレーションして生成したものです。