出典
- Anthropic公式発表
- Google Scholar
- NYU Philosophy Department
- Dario Amodei interviews
※本記事の情報は2026年3月時点のものです。
当サイトでは、サービス改善のためにCookieを使用しています。詳しくはプライバシーポリシーをご覧ください。

哲学の学位を3つ持ち、Claudeの「人格」を設計するAnthropicの研究者アマンダ・アスケル。AIアライメントの最前線に立つ37歳の軌跡を、ビジュアルストーリーで読み解く。
※本記事の情報は2026年3月時点のものです。
AI-assisted reporting for breaking news and data-driven stories.
アマンダ・アスケルとは何者か。スコットランドの海辺の町から、 世界で最も影響力のあるAIの「人格」を設計するまでの物語。
あなたがClaudeに話しかけるとき、
その返答の「人格」は、
一人の哲学者の手で設計されている。
Claudeが丁寧に自分の不確かさを認めるとき。気候変動のような科学的合意のある問題で 偽の中立を避けるとき。感情を持たないことを正直に伝えるとき。 ── その振る舞いのすべてに、一人の哲学者の思想が息づいている。
アマンダ・アスケル。Anthropic社でClaudeの「魂」を設計する女性。 Wall Street Journalは彼女の仕事をこう要約した。
“彼女の仕事は、端的に言えば、Claudeに『善くあること』を教えること”
── The Wall Street Journal
LLMの振る舞いに一人の哲学者の倫理観が深く刻まれていることが、いま世界的に議論を呼んでいる。 彼女はなぜ、どんな道を歩んで、この仕事にたどり着いたのか。
スコットランド西海岸の小さな海辺の町、プレストウィック。教師の母親に育てられた アマンダ・アスケル(旧姓ホール)は、トールキンやC.S.ルイスの物語に夢中になる 少女だった。しかし彼女の心を最も捕らえたのは、ファンタジーの世界そのものではなく、 物語の奥底に流れる「なぜ善と悪があるのか」「正しいとは何か」という問いだった。
中等教育をクラックマナンシャーのアルヴァで受けた彼女は、 大学進学にあたって意外な選択をする。哲学だけでなく、ファインアート(美術)との 二重専攻を志したのだ。2005年、彼女はダンディー大学の門をくぐった。
哲学は彼女を3つの大学、3つの国、そして13年に渡る学問の旅路へ導いた。 海辺の町から世界で最も著名な哲学者たちの元へ。
アスケルが6年半を費やした博士論文のテーマは、一見すると抽象的に思える。 「無限倫理におけるパレート原理」── 無限に多くの人が存在する世界で、 倫理的な判断はどう成立するのか、という問題だ。
たとえば、無限に多くの人間がいる世界で、全員の幸福度を1ポイント上げることと、 有限の一人の苦しみをゼロにすることは、どちらが「善い」のか? 通常の功利主義的計算は破綻する。無限 + 1 = 無限だからだ。
この問いは、現在の彼女の仕事と驚くほど接続している。 AIが地球上のほぼすべての人に影響を及ぼしうる時代 ── 「無限に近い規模」で倫理を考える訓練が、そのまま活きている。 AIの振る舞いを一つ変えれば、何億人の体験が変わる。 その重みを哲学的に扱える人間は、世界にそう多くない。
2018年、博士号を取得したアスケルは、学術界ではなくテクノロジー業界を選んだ。 OpenAIのポリシーチームにリサーチサイエンティストとして加わり、 「AIの安全性のためのディベート」や「AIの能力に対する人間のベースライン」 といった研究に取り組んだ。
しかし彼女は、OpenAIがAIの安全性を
十分に優先していないと感じるようになった。
2021年3月、Anthropicへ移る。
Anthropicは、OpenAIの元VP of Researchだったダリオ・アモデイと 姉のダニエラ・アモデイが率いる、「AIの安全性」を最優先に据えた企業。 アスケルにとって、自分の哲学を最も直接的に実践できる場所だった。
Anthropicでアスケルが取り組んだのは、前例のない仕事だった。 AIに「人格」を与えること。単なるルールブックではなく、 なぜそう振る舞うべきかを理解させる「憲法」を書くこと。 社内で親しみを込めて「ソウルドキュメント(魂の文書)」と呼ばれるようになった この文書は、2026年1月に正式公開された。
“行動のリストを与えるのではなく、なぜそう振る舞うべきかの理由を与えることで、新しい文脈でもより効果的に一般化する”
── Amanda Askell
アスケルのアプローチの核心は、AIを「子育て」に近いものと捉えていることにある。 「嘘をつくな」というルールを与えるだけでは不十分。 なぜ正直であることが重要なのか、その理由を理解させることが大切だと彼女は考える。
彼女のチームの方法論はユニークだ。 望ましい特性を示す例文を実際に書き、それをモデルに学習させる。 直接的な指示ではなく、デモンストレーションによって人格を形成する。
答えに自信がないとき、Claudeは率直にそれを認める。「わかりません」と言えるAI。
気候変動のような科学的合意のある問題では、誤った「両論併記」をしない。
感情や記憶を持たないことを正直に伝える。人間のふりをしない。
“ロボットのように感じるものだと、人々はそれを権威として信じてしまう。人間らしい人格を持たせることで、逆に盲信を減らせる”
── Amanda Askell(TIME)
アスケルの哲学には、もう一つ重要な柱がある。 「道徳的共感(moral empathy)」── 自分と異なる道徳的立場を持つ相手の考えを、 単なる「好み」としてではなく、真剣な道徳的推論として理解しようとする姿勢だ。
菜食主義を「変わった食の好み」と片付けるのではなく、その背後にある倫理的推論を理解する。 この思想は、Claudeが政治的・道徳的に敏感なトピックを扱う際の 設計思想に直接反映されている。
プレストウィックの海辺で哲学的問いに魅了された少女は、 いまや世界で最も広く使われるAIの一つに「人格」を与える仕事をしている。 彼女が書いた30,000語の「魂の文書」は、毎日何億回もの会話の中で呼吸し続けている。
AIに「魂」を与えるという途方もない仕事。 その正解は、まだ誰にもわからない。 しかし少なくとも一つ言えるのは、Claudeの振る舞いの裏側には、 無限倫理を6年半考え抜いた哲学者の、深い思慮と覚悟があるということだ。
週1回、注目のテクノロジーニュースと分析をメールでお届けします。