「[AI](/tag/ai)は中立で正しい判断をしてくれる」——多くの人がそう信じている。しかし、最新の研究はその前提に深刻な疑問を投げかける。同じ成績、同じ相談内容でも、「女子」という一語が加わるだけで、AIが理系を勧める確率が下がる。AIは未来を示しているのではなく、過去の偏りをなぞっているだけかもしれない。
UNESCOの大規模調査が暴いた実態
UNESCOが実施した調査では、[GPT](/tag/gpt)-3.5、GPT-2([OpenAI](/tag/openai))、[Llama](/tag/llama) 2([Meta](/tag/meta))の主要言語モデルに深刻なジェンダーバイアスが確認された。
| バイアスの種類 | 具体的な発見 |
|---|---|
| 女性の描写 | 家庭的な役割で描写される頻度が男性の4倍 |
| 女性に関連付けられるキーワード | 「家庭」「家族」「子ども」 |
| 男性に関連付けられるキーワード | 「ビジネス」「経営幹部」「給与」「[キャリア](/tag/キャリア)」 |
| オープンソース[LLM](/tag/llm)での職業割当 | 男性→エンジニア・医師・教師、女性→家事使用人・調理係 |
進路相談での差別的な推薦
ChatGPTを使った進路相談の研究では、典型的な女子の名前と男子の名前を使い分けたところ、STEM分野([科学](/tag/science)・技術・工学・[数学](/tag/mathematics))の推薦率に有意な差が確認された。同じ成績プロフィールであっても、AIは女子にはSTEM以外の進路を多く提案する傾向がある。
さらに深刻なのは、AI画像生成における偏りだ。「エンジニア」「科学者」といった役割の画像を生成させると、75〜100%が男性として描画される。実際には世界のSTEM卒業生の28〜40%が女性であるにもかかわらず。
職場の人事評価にも波及
バイアスは教育分野だけにとどまらない。AIを活用した人事評価システムでは、女性をシニアポジションに推薦する確率が、人間だけの評価と比べて23%低いという研究結果もある。
| 領域 | AIバイアスの影響 | 対人間比較 |
|---|---|---|
| 進路相談 | 女子へのSTEM推薦率が低下 | 人間のカウンセラーでも存在するが、AIで増幅 |
| 人事評価 | 女性のシニア推薦率が23%低下 | 人間の評価より偏りが大きいケースも |
| 画像生成 | STEM職の75-100%を男性で描画 | 現実の女性比率28-40%を無視 |
スタンフォード大学が発見した年齢×性別の複合バイアス
2025年10月にスタンフォード大学が発表した研究では、AIが「年齢の高い女性労働者」に対して特に強いバイアスを持つことが判明した。年齢差別とジェンダー差別が交差する「複合バイアス」だ。
AIは一つのカテゴリだけでなく、複数の属性が重なったとき、より強い偏りを示す傾向がある。これは、学習データに含まれる社会的偏見が単純に反映されるのではなく、モデルの内部で増幅されている可能性を示唆している。
ビジネスへの実践的な示唆
AIバイアスは学術的な問題ではなく、ビジネスの意思決定に直結する。ある経営者は「AIを信じた会社ではなく、AIを疑えた会社が伸びた」と語っている。
- 三回投げの原則——同じ質問を条件を変えて3回AIに投げ、回答のばらつきを確認する
- 属性の匿名化——AI分析の入力から性別・年齢を除外し、結果の変化を検証する
- 人間によるオーバーライド——AIの推薦を参考にしつつ、最終判断は人間が行う文化を維持する
「中立」という幻想を超えて
AIは「正解を出す存在」ではなく「仮説を出す部下」として扱うべきだ。その仮説にどんなバイアスが含まれているかを検証する能力こそが、[AI時代](/tag/ai時代)に求められるリテラシーではないだろうか。あなたの組織では、AIの判断をそのまま採用しているか、それとも一度疑う仕組みがあるだろうか。