AIに"魂"を
吹き込んだ哲学者
アマンダ・アスケルとは何者か。スコットランドの海辺の町から、 世界で最も影響力のあるAIの「人格」を設計するまでの物語。
あなたがClaudeに話しかけるとき、
その返答の「人格」は、
一人の哲学者の手で設計されている。
Claudeが丁寧に自分の不確かさを認めるとき。気候変動のような科学的合意のある問題で 偽の中立を避けるとき。感情を持たないことを正直に伝えるとき。 ── その振る舞いのすべてに、一人の哲学者の思想が息づいている。
アマンダ・アスケル。Anthropic社でClaudeの「魂」を設計する女性。 Wall Street Journalは彼女の仕事をこう要約した。
“彼女の仕事は、端的に言えば、Claudeに『善くあること』を教えること”
── The Wall Street Journal
LLMの振る舞いに一人の哲学者の倫理観が深く刻まれていることが、いま世界的に議論を呼んでいる。 彼女はなぜ、どんな道を歩んで、この仕事にたどり着いたのか。
海辺の町の少女は、
なぜ「問い」に惹かれたのか
スコットランド西海岸の小さな海辺の町、プレストウィック。教師の母親に育てられた アマンダ・アスケル(旧姓ホール)は、トールキンやC.S.ルイスの物語に夢中になる 少女だった。しかし彼女の心を最も捕らえたのは、ファンタジーの世界そのものではなく、 物語の奥底に流れる「なぜ善と悪があるのか」「正しいとは何か」という問いだった。
グラスゴーから南西に約50km。
エルヴィス・プレスリーが英国で唯一足を踏み入れた場所としても知られる。
中等教育をクラックマナンシャーのアルヴァで受けた彼女は、 大学進学にあたって意外な選択をする。哲学だけでなく、ファインアート(美術)との 二重専攻を志したのだ。2005年、彼女はダンディー大学の門をくぐった。
ダンディーからNYUへ。
13年の知的冒険
哲学は彼女を3つの大学、3つの国、そして13年に渡る学問の旅路へ導いた。 海辺の町から世界で最も著名な哲学者たちの元へ。
無限の世界で
「善い」とは何か
アスケルが6年半を費やした博士論文のテーマは、一見すると抽象的に思える。 「無限倫理におけるパレート原理」── 無限に多くの人が存在する世界で、 倫理的な判断はどう成立するのか、という問題だ。
たとえば、無限に多くの人間がいる世界で、全員の幸福度を1ポイント上げることと、 有限の一人の苦しみをゼロにすることは、どちらが「善い」のか? 通常の功利主義的計算は破綻する。無限 + 1 = 無限だからだ。
この問いは、現在の彼女の仕事と驚くほど接続している。 AIが地球上のほぼすべての人に影響を及ぼしうる時代 ── 「無限に近い規模」で倫理を考える訓練が、そのまま活きている。 AIの振る舞いを一つ変えれば、何億人の体験が変わる。 その重みを哲学的に扱える人間は、世界にそう多くない。
「安全性」を選んだ哲学者
2018年、博士号を取得したアスケルは、学術界ではなくテクノロジー業界を選んだ。 OpenAIのポリシーチームにリサーチサイエンティストとして加わり、 「AIの安全性のためのディベート」や「AIの能力に対する人間のベースライン」 といった研究に取り組んだ。
しかし彼女は、OpenAIがAIの安全性を
十分に優先していないと感じるようになった。
2021年3月、Anthropicへ移る。
Anthropicは、OpenAIの元VP of Researchだったダリオ・アモデイと 姉のダニエラ・アモデイが率いる、「AIの安全性」を最優先に据えた企業。 アスケルにとって、自分の哲学を最も直接的に実践できる場所だった。
30,000語の「魂」。
Claudeの人格はこうして生まれた
Anthropicでアスケルが取り組んだのは、前例のない仕事だった。 AIに「人格」を与えること。単なるルールブックではなく、 なぜそう振る舞うべきかを理解させる「憲法」を書くこと。 社内で親しみを込めて「ソウルドキュメント(魂の文書)」と呼ばれるようになった この文書は、2026年1月に正式公開された。
“行動のリストを与えるのではなく、なぜそう振る舞うべきかの理由を与えることで、新しい文脈でもより効果的に一般化する”
── Amanda Askell
ルールではなく、
「理由」を教える
アスケルのアプローチの核心は、AIを「子育て」に近いものと捉えていることにある。 「嘘をつくな」というルールを与えるだけでは不十分。 なぜ正直であることが重要なのか、その理由を理解させることが大切だと彼女は考える。
彼女のチームの方法論はユニークだ。 望ましい特性を示す例文を実際に書き、それをモデルに学習させる。 直接的な指示ではなく、デモンストレーションによって人格を形成する。
答えに自信がないとき、Claudeは率直にそれを認める。「わかりません」と言えるAI。
気候変動のような科学的合意のある問題では、誤った「両論併記」をしない。
感情や記憶を持たないことを正直に伝える。人間のふりをしない。
“ロボットのように感じるものだと、人々はそれを権威として信じてしまう。人間らしい人格を持たせることで、逆に盲信を減らせる”
── Amanda Askell(TIME)
道徳的共感。
そして、収入の半分を寄付する誓い
アスケルの哲学には、もう一つ重要な柱がある。 「道徳的共感(moral empathy)」── 自分と異なる道徳的立場を持つ相手の考えを、 単なる「好み」としてではなく、真剣な道徳的推論として理解しようとする姿勢だ。
菜食主義を「変わった食の好み」と片付けるのではなく、その背後にある倫理的推論を理解する。 この思想は、Claudeが政治的・道徳的に敏感なトピックを扱う際の 設計思想に直接反映されている。
慈善団体を支援。実効的利他主義の初期からの参加者
一人の哲学者の思想が、
何億人のAI体験を形づくる。
それは、正しいのか?
プレストウィックの海辺で哲学的問いに魅了された少女は、 いまや世界で最も広く使われるAIの一つに「人格」を与える仕事をしている。 彼女が書いた30,000語の「魂の文書」は、毎日何億回もの会話の中で呼吸し続けている。
AIに「魂」を与えるという途方もない仕事。 その正解は、まだ誰にもわからない。 しかし少なくとも一つ言えるのは、Claudeの振る舞いの裏側には、 無限倫理を6年半考え抜いた哲学者の、深い思慮と覚悟があるということだ。
出典
- Anthropic公式発表
- Google Scholar
- NYU Philosophy Department
- Dario Amodei interviews
※本記事の情報は2026年3月時点のものです。

