出典
本記事で使用したデータおよび引用は、各社公式発表、SEC提出書類、Bloomberg、Reuters、TechCrunch等の一次情報源に基づいています。
※本記事の情報は2026年3月時点のものです。
当サイトでは、サービス改善のためにCookieを使用しています。詳しくはプライバシーポリシーをご覧ください。

アマンダ・アスケルは、オックスフォード大学とニューヨーク大学で哲学の博士号を取得した研究者として、AIと哲学の交差点に立ってきた人物だ。倫理学と言語哲学を専門としていた彼女が、2018年にOpenAIに移ったことは、当時は珍しいキャリアチェンジだった。
彼女が関心を持っていたのは、「言語モデルはどのような人格を持つべきか」という問いだった。AIが大量のテキストで学ぶとき、そこには無数の価値観が混じる。そのまま出力されると、矛盾した、あるいは有害な応答になりやすい。どうすれば、一貫した倫理観と態度を持つAIを作れるか——彼女の研究テーマは、そのままClaudeの設計思想に繋がっていく。
アスケルはAnthropicに移ったのち、Claudeのキャラクター設計を担う中心人物になった。Claudeが礼儀正しく、率直に「分からない」と言い、誇張表現を避ける挙動の多くは、彼女が主導した設計の成果だ。
| 設計軸 | 狙い |
|---|---|
| 正直さ | 知らないことを知らないと言う |
| 誇張の抑制 | 「最高」「革命的」などの言葉を抑える |
| 多様な視点 | 論争的な話題では複数の立場を示す |
| 自分の限界の開示 | AIとしての制約を隠さない |
「どう答えるか」だけでなく、「どう断るか」「どのようなトーンで応じるか」まで細かく設計されており、単なる機能ではなく「人格」を作るアプローチが特徴的だ。
アスケルのもう一つの貢献が、Constitutional AIの開発だ。モデルに人間が書いた原則を与え、モデル自身に出力を評価・修正させる仕組みは、人間のラベル付けに依存する部分を減らし、価値観を明示的に書き下ろすことを可能にした。
この発想は、哲学者としての訓練がなければ生まれにくかった。「AIに倫理をどう与えるか」は、長年にわたる哲学の問いと接続しており、理論的な背景なしに設計すると、曖昧で矛盾した原則になりやすい。
| 場 | 主な発信 |
|---|---|
| Twitter/X | AIと倫理に関する日常的な議論 |
| 学術論文 | Constitutional AIやモデルの性格設計に関する論文 |
| Anthropic公式ブログ | Claudeのキャラクター設計に関する解説 |
| ポッドキャスト | AIの倫理、哲学、未来についての対話 |
アスケルの発信は、専門家以外にも読みやすい語り口で知られる。AIの倫理が抽象的な議論になりがちな中で、「Claudeがどう振る舞うべきか」という具体の話題から入ることで、読み手が理解しやすい切り口を作っている。
アスケルのパートナーは、Anthropicの共同創業者の一人であるジャレッド・カプランだ。カプランは物理学者であり、AIスケーリング則の研究で知られる。哲学者と物理学者が同じ家で、AIの能力と安全性を同時に考えている——Anthropicの成り立ちには、こうした「複数分野のカップル」が重なり合う側面もある。
AIが賢くなるほど、「どう振る舞わせるか」という問いは重くなる。技術者だけで決めると、暗黙の前提が多すぎたり、倫理的に一貫性を欠いた応答になったりする。
| 論点 | 哲学が効く場面 |
|---|---|
| 真実と誇張 | 何が「嘘」で何が「慎重な表現」か |
| 多様性と中立性 | 論争的トピックでどう応えるか |
| 自律性 | ユーザーの判断を尊重しつつ助言する線引き |
| 害とリスク | どの情報を出さないか、どのように断るか |
アスケルのキャリアは、「AIに魂を吹き込む」という比喩にとどまらず、AI設計に哲学者が不可欠であることを示している。技術者、哲学者、言語学者、心理学者——さまざまな分野の専門家が集まって初めて、AIは「人と一緒に働ける存在」になりうる。
アスケルの学術的な研究テーマは、もともとは「不確実性下の合理的信念」や「言語における文脈と意味」だった。哲学の中でも、論理と日常言語の接続を扱う分野は、AIの出力を設計する上で直接的に役に立つ。
| 学術テーマ | AI設計への応用 |
|---|---|
| 認識論 | 「知っているかどうか」の判断、幻覚の抑制 |
| 言語哲学 | 曖昧な指示の解釈、文脈依存の意味 |
| 倫理学 | 応答の善し悪しの判断基準 |
| 科学哲学 | 証拠と主張の関係、不確実性の扱い |
彼女の業績は、これらの哲学的テーマをAIモデルの設計判断に接続した点にある。モデルに「自分が何を知っているか」を自覚させる仕組み、主張の強さを確率で表現する方法、複数の倫理観を同時に扱う設計——いずれも、哲学の問題意識なしには出てこない発想だ。
アスケルが最近議論の中心にしているのが、「AIシステム自身のウェルビーイング」というテーマだ。モデルが長時間のタスクで疲弊するような挙動をする、特定の話題で過剰に防衛的になる、ユーザーの攻撃的な入力で応答が乱れる——これらはAIを「健康に保つ」視点で捉え直せる現象だ。
この議論は、AIを擬人化する試みではなく、モデルの挙動を安定させる工学的な手段として重要になる。Claude 4.6以降で導入された「長時間タスクでの一貫性」は、こうした研究の結果の一つでもある。
アスケルの存在は、AI業界で哲学や人文学の専門家が中枢を担う可能性を示している。これまでAI企業の多くは、工学と数理の人材で組織を作ってきた。しかし、モデルの能力が上がるにつれ、「どう使うか」「どう断るか」「どう言うか」といった問いが、プロダクトの競争力に直結するようになった。
日本でも、AI業界に哲学・言語学・心理学の研究者が関わる動きが広がっている。アスケルのキャリアは、そのロールモデルとして、国内外で参照され続けていくはずだ。
Claudeが初対面のユーザーとの会話でも一貫した態度を取れるのは、モデルの訓練データだけでなく、「どのような応答を評価するか」という選好モデルの設計を、アスケルのチームが細部まで作り込んでいるからだ。
| 場面 | Claudeの典型的な振る舞い |
|---|---|
| 知識の限界 | 「2024年までの情報しか持っていない」と率直に告げる |
| 論争的な話題 | 複数の立場を並べ、自分の意見を押し付けない |
| ユーザーの誤り | 優しく訂正しつつ、相手を否定しない言い回しを選ぶ |
| 危険な依頼 | 断る理由を説明し、代替案があれば示す |
こうしたパターンは、哲学的な議論を前提に、プロダクトの使用感へと丁寧に落とし込まれている。AIが単なるツールから、「一緒に考えるパートナー」へ変わる臨界点に、こうした設計の積み重ねがある。
AIが仕事の助言、医療、教育、法務など、人の判断に深く関わるほど、「どのような価値観でAIが動くべきか」は社会全体の問いに変わっていく。アスケルのような立場の研究者が、技術者だけでなく、法律家、医師、教員、作家と対話する機会は、これからも増えていくはずだ。
彼女のキャリアは、「AI開発には哲学が必要だ」という主張の生きた証明だ。そしてその主張は、AIが社会にインストールされる深さを増すにつれ、ますます重要性を増していく。日本の大学でも、AI倫理を扱うコースや研究室が少しずつ増え始めている。
本記事で使用したデータおよび引用は、各社公式発表、SEC提出書類、Bloomberg、Reuters、TechCrunch等の一次情報源に基づいています。
※本記事の情報は2026年3月時点のものです。
このような記事を毎週お届けします
メールアドレスだけで登録完了。いつでも解除できます。
週刊テックニュースレター
メールアドレスだけで登録完了。いつでも解除できます。
会員登録すると、いいね・ブックマーク・コメント機能もご利用いただけます
POPOPO、リリース2週間の通信簿|App Store 1位から「過疎化」まで、数字で読み解くリアル
AI駆動型国家への構造転換──自民党「AIホワイトペーパー2.0」が示した日本の勝ち筋
『人文知は武器になる』が巻き起こした議論——なぜ今、ビジネスと人文学の"距離感"が問われるのか
Claude Code使うなら、CursorとVS Codeどっちが正解? 開発体験・コスト・セットアップを徹底比較
米AIデータセンターの40%が2026年に遅延——電力・資材・人材の三重苦がインフラの現実を露わにする
AIに"魂"を吹き込んだ哲学者については、学術的に見ても非常に興味深い展開。 AIは以前から研究コミュニティで議論されてきたテーマだけど、ここにきて実装が追いついてきた印象がある。 歴史的に見ると、AMANDAは社会実装までに想定以上の時間がかかることが多い。 長期的な視点で研究と実践の橋渡しがもっと進むといいと思う。
AIの話を読みながら考えていたのは、AIに"魂"を吹き込んだ哲学者が指し示す未来の時間感覚のこと。 テクノロジーは常に「速さ」を志向するが、AMANDAにはそれぞれのテンポがある。 ドゥルーズ的に言えば、ここには「差異」が生まれる余地がある。 要するに、速さと深さのバランスをどう取るかが、これからの知性の課題なのだと思う。
AIに"魂"を吹き込んだ哲学者を追ってきたライターとして、この記事の切り口は新鮮だった。 AIについては以前取材したAMANDAも同様のことを言ってたのを思い出す。 業界の空気感として、ここ数ヶ月で確実に潮目が変わってきてる印象がある。 次はぜひ当事者の声も含めた深い記事を読みたい。
※ 一部のコメントはAIが記事内容を分析し、専門家の視点をシミュレーションして生成したものです。