採用プロセスのどこにAIが入っているのか
現在、多くの大企業の採用プロセスには複数のAIが埋め込まれている。
最もよく知られるのは「レジュメスクリーニング」だ。 提出された履歴書をキーワードや構造で自動解析し、次のステップに進む候補者を絞り込む。 採用担当者が目にするのは、AIが「合格」と判定した候補者だけだ。
次に「一次面接の自動化」がある。 HireVueなどのプラットフォームは、録画動画や音声から表情・声調・語彙を解析し、候補者を点数化する。 人間の面接官が登場するのはその後だ。
さらに近年増えているのが「組織内の人事評価・勤怠データの分析」だ。 コードのコミット頻度、メールの反応速度、会議への参加率、売上予測モデルへの貢献度——これらの数値が従業員のパフォーマンスとして「スコアリング」され、アラートが上がった従業員が管理職の面談に呼ばれる仕組みが広がっている。
解雇の決定にAIが関与するケースも
より論議を呼ぶのが「退職勧奨や解雇にAIが関与するケース」だ。
Amazonでは、倉庫ワーカーの生産性をリアルタイムで追跡するシステムが長年稼働しており、閾値を下回った従業員には自動で警告や解雇が通知される仕組みが知られている。 2026年現在、同様の仕組みがオフィスワーカーにも適用される事例が増えている。
社会学者の視点から見ると、ここには「権力の非対称性」という古典的な問題の新形態がある。 従来の解雇は、管理職が「会話」を通じて伝えるものだった。 そこには交渉の余地、感情、文脈の伝達があった。 AIが介在した自動的な判断は、この「人間的なプロセス」を排除する方向に働く。
「アルゴリズムによる管理」への異議申し立て
労働者側の反撃も始まっている。
EUでは「AI法(EU AI Act)」が2025年に段階的施行を開始し、採用・人事評価への高リスクAI利用に透明性開示義務を課している。 米国でもニューヨーク市が2023年にAI採用ツールへの第三者監査を義務化しており、他の州でも同様の法整備が進みつつある。
英国の裁判では「アルゴリズムによる解雇は不当解雇にあたるか」が争点となった事例も出ている。 LinkedInが全社員の5%を削減した際、その判断プロセスにどの程度AIが関与したかは公表されていない。
なぜ企業はAIに判断を委ねたがるのか
採用・人事評価へのAI導入を推進する企業側の論理にも一定の合理性はある。
人間の採用担当者は無意識の偏見(性別・年齢・出身校など)を持つ。 AIは「客観的なデータだけ」で判断するため、偏見を排除できるという主張だ。 また、大量の応募者をスクリーニングするコスト削減、評価の一貫性確保といったメリットも挙げられる。
しかし学術的に見ると、この論理には重大な前提の誤りがある。 AIは「過去のデータから学習する」ため、過去に採用された人々の属性に似た人を「合格」と判定しやすい。 これは既存の偏見を再生産する「フィードバックループ」だ。
AIがエントリーレベルの採用を35%削減しているという現実と合わせると、若い世代がキャリアの最初の一歩を踏み出す機会さえも、アルゴリズムによって狭められつつあるといえる。
今後の注目点——「説明可能なAI採用」は実現するか
「なぜあなたが不採用だったのか、AIが説明できる社会」は来るだろうか。
EU AI Actは高リスクAIの決定に「説明可能性」を要求している。 しかし「なぜこの候補者が選ばれなかったか」を人間が理解できる形で示すことは、現在のディープラーニングモデルには技術的に困難だ。
「採用する側もされる側も、判断の根拠が見えない」という状態が続く限り、AI採用・解雇をめぐる法的・社会的な摩擦は増える一方だろう。 あなたの雇用に関わる決定を、あなたは「AIに任せてよい」と感じるだろうか。
ソース:
- Is a bot coming for your job? Employers expand AI tools from resume-sorting to layoffs — Washington Times(2026年5月14日)
- AI isn't actually taking your job. Here's what's happening instead — CNN Business(2026年5月10日)
- AI job losses: Look up which workers are most vulnerable — Washington Post(2026年5月)
- Layoffs at Amazon, Meta and Microsoft are not all about AI — Washington Post(2026年5月1日)