「AIで効率化するから人員削減」——ところがその半分は“静かに元の役割を採用し直す”ことになりそうだ。
References:The Register
市場調査会社Forresterの最新予測は、AIを理由にしたレイオフの約50%が反転し、しかもオフショア化や低賃金での再採用が増えると警告する。
経営はコストを削ったつもりでも、品質低下・顧客離れ・再雇用コストで“AIリストラのブーメラン”を食らう——これが今のトレンドだ。
速報要点:何が起きているのか
・レイオフの反転:
Forrester「Predictions 2026: The Future of Work」によれば、AIを名目に削った雇用の約半分が復活。
現場は結局人手に戻す可能性が高い。
・後悔の増大:
AIを理由に人員削減した企業の55%が“やるんじゃなかった”と後悔。
一方、来年は減員より増員を見込む経営者(57%)が減員見込み(15%)を上回るという逆説。
・再採用の中身:
戻ってくる仕事の多くは低賃金・オフショアに寄る見通し。
とりわけ人事(HR)領域はAIツールの導入で“半分の人員で同等サービス”を期待され、供給サイドの“AIウォッシュ製品”も出回る。
なぜAIリストラのブーメランが起きるのか
ツールの成熟度が実務に届いていない
生成AI/エージェントの成功率はまだ高くない。
CRM分野の学術ベンチマークでは、単発タスクですら成功率が約58%にとどまり、顧客機密の扱いにも課題が残る。
人ゼロ運用へ一気に振るには、品質・説明責任・機密順守の壁が厚い。
期待先行の投資は買い手の後悔へ
ForresterはAI投資の25%が2027年へ繰り延べになると予測。
PoCが量産される一方で、ROIの不透明さと運用・リスク管理コストが膨らみ、“とりあえずの解雇→結局戻す”を招く。
現場の影の仕事を読み違える
FAQ対応や一次分類は置き換えやすいが、例外処理・合意形成・責任分界といった“影のタスク”は人の判断が必要。
ここを見誤ると、顧客体験の悪化→信頼毀損→人の再配置の逆回転に陥る。
KlarnaやDuolingoなど、攻めの自動化を見直す企業も出た。
どの職務が出戻り採用されやすいか
- カスタマーサポート/オペレーション:
定型は自動化できても、クレーム・例外・越境案件は人に戻りがち。
Salesforceは4,000のサポート職をAIで代替と言うが、他部門での再配置や補完の人手も並走している。 - 人事(HR):
採用・配置・評価は“ハードルが低そう”に見えて実は倫理・公平性・説明責任の塊。
半減の期待はあるが、監査・同意・異議申立ての運用で人の出番が残る。 - コンテンツ運用/マーケ:
生成速度は上がるが、ブランド一貫性・法規のチェックで人の審査が不可欠。
低単価での編集再雇用が起こりやすい。
経営が踏むべき現実的ロードマップ
- “決定論”と“非決定論”を分離
勘定・権限・監査などミス許容が低い領域はSaaSの厳密制御に据え、探索・要約・提案はエージェント上乗せで段階導入。
二階建てアーキテクチャで事故コストを抑える。 - 価格とKPIの設計をやり直す
“席課金”ではエージェントの爆発的増殖を捉えられない。
処理件数・一次解決率・TAT短縮・誤処理率など成果基準にコスト天井(上限課金)を組み合わせる。 - 段階的オートメーション
人→人+AI支援→AI主導+人監督→部分自律の4段階でハンドオフ条件(どこで人に戻すか)を明文化。
監査ログ・リプレイで“説明可能な自動化”にする。 - 再スキル/再配置を先に決める
“削って終わり”ではなく、職務の再設計と再配置をレイオフ前に組む。
戻すより育てた方が総コストは安いケースが多い。
HRとガバナンス:ここが最大の地雷
- AIウォッシュの見抜き:
評価指標・データ来歴・テスト結果を開示しないベンダーは要注意。
精度だけでなく、入力制約・失敗時動作・人へのエスカレーションをSLAに入れる。 - 公平性・プライバシー:
採用・昇進・報酬へのAI適用は説明責任が直撃。
監査ルートと異議申立ての運用がないと訴訟・評判リスクに直結。 - 投資の見直し:
Forresterは“2026年は検証重視の年”と総括。
約束より証拠、デモより実績で絞るのが賢い。
反証・反動の兆し
- 他社予測の冷や水:
Gartnerは2027年末までに4割超のエージェント案件が中止と展望。
コスト増/価値不明/リスク制御不足が理由だ。
“人ゼロ”の夢をいったん冷やす時期に入っている。 - それでも解雇の圧力:
アマゾンなどがAI加速を理由に追加の人員削減を発表。
短期のコスト最適化は続くが、品質毀損が見えた途端に“出戻り採用”が起きる——これが今の往復運動である。
現場への示唆:3か月でやること
- ユースケース棚卸し:
自動化の候補業務を“成功条件・失敗時の責任・エスカレーション”で評価し直す。 - 評価の内製化:
社内データでのEvals(正確性・再現性・コンプライアンス)を継続運転。
外部スコアだけで採否を決めない。 - 再雇用コストの可視化:
解雇→再採用で発生する手数料・オンボーディング・信頼毀損まで含めたTCOで意思決定する。
まとめ:「AIで減らす」より「AIで設計し直す」へ
Forresterの示す方向性は明快だ。
人を切ってからAIに賭けるのではなく、AIを前提に業務と組織を設計し直す。
決定論の土台(SaaS)に非決定論の付加価値(エージェント)を重ね、成果指標と価格設計を更新し、段階的に自律度を上げる。
そうすれば、“AIで解雇→品質悪化→再雇用”という高くつく往復運動を避け、本当に残すべき人材に投資を集中できる。
2026年は「証拠の年」——約束より実績で、AIの本当の収益化に踏み込む時だ。



コメント