世界はどう終わる?——「自滅リスク」が上位に来る理由と、今日から減らす方法

予言

LADbibleは2025年10月30日の記事で、「世界(人類)の終わり方」を専門家の見解から整理し、核戦争と人工知能(AI)といった“人為的リスク”が、超火山噴火や巨大隕石などの自然起源よりも現実的に高いと指摘した。
References:LADbible

核は「数時間で文明を終わらせ得る」破壊力を持ち、AIは人間より賢い系の登場が見込まれる中で制御不能の懸念が増す——というのが骨子だ。

記事は核保有9カ国の現状や、AI研究者ジェフリー・ヒントンの“10〜20%で人類滅亡に至る可能性”という発言にも触れている。

核戦争:最悪なら「数時間」で文明崩壊の入口へ

戦略核の撃ち合いは、直接被害だけでなく、火災由来の煤(すす)が成層圏に入り込み「核の冬」を招くシナリオが長年検討されてきた。

近年のシミュレーションでは、作物・畜産・漁業の世界的生産減が長期化し、食料安全保障が崩れる可能性が定量的に示されている。

最悪の全面戦争でなくとも、地域規模の核戦争でも世界的飢饉のリスクは顕著だ。

さらに核保有9カ国(米・露・中・仏・英・印・パ・イスラエル・北朝鮮)は、2024年時点でいずれも戦力の近代化を続け、軍縮と管理のフレームは弱体化している。

これは抑止の安定よりも誤算や誤信号のリスクを高める方向だ。

実際、1962年のキューバ危機では、ソ連海軍のヴァシーリー・アルヒーポフ核魚雷発射への同意を拒否し、全面戦争を土壇場で回避したという事例が知られる。
人間の判断ひとつが歴史を分けた。

なぜ“終わり方”になり得るのか——初撃で社会インフラが広域停止→鎮火不能の火災→寒冷化・降水減→収穫激減→食料とエネルギーの連鎖危機という“多段の悪化”が、短期の軍事的被害を長期の文明危機へ変換するからだ。

人工知能(AI):誤用と誤作動、二つの道から来るリスク

LADbibleが引いたジェフリー・ヒントン(“AIのゴッドファーザー”)は、10〜20%という非無視の確率で、AIが人類存続に致命的影響を与え得ると警鐘を鳴らす。

20年以内に人間より賢いAIが出るとの見立てもある。

これは“すぐ滅ぶ”という話ではないが、ハイテクの暴走や濫用が現実的リスクであることを意味する。

また、AI安全性声明(CAIS)は2023年に「AIによる絶滅リスクの低減は、パンデミックや核戦争と同等に人類規模の最優先課題である」と明言し、国際協調でのリスク低減を訴えた。

AIの“終わり方”パスは大きく二つある。

  1. 誤用(misuse)
    悪意ある主体が、AIをサイバー攻撃生物兵器設計などに用いる。

  2. 誤作動・目的外最適化(misalignment)
    自律エージェントが人間の価値とズレた目標を追い、想定外の力学で資源・権限を獲得する。

両者に共通する対策は、監査可能性・停止可能性多層のガバナンスだ。

自然由来の「世界の終わり」はどれほど現実的か

隕石衝突

巨大隕石衝突は破局度が高い一方、監視と確率が要

2025年に話題となった小惑星2024 YR4当初1%超の衝突確率が取り沙汰されたが、追観測で0.001〜0.0017%へ大幅低下、最終的に脅威ではないと判断された。

発見・追跡の体制強化は確実に奏効している。

火山噴火

超火山については、米国地質調査所(USGS)が「イエローストーンの破局的噴火は、年確率にすれば約1/73万程度と極めて低い」と説明。

むしろ起こりやすいのは小規模の水熱爆発溶岩流である。

過度な恐怖よりも冷静なリスク理解が重要だ。

気候変動

気候変動“ゆっくり来る終わり方”の代表格だ。

IPCC AR6統合報告は、既に広範な被害とリスク増大を確認し、排出の早期ピークアウトと適応の強化を強調している。

短期に文明崩壊を招く単発事象ではないが、複合災害として社会の脆弱性を恒常的に底上げする。

感染症

感染症パンデミックは、自然・事故・故意のいずれの経路でも起こり得る。

2025年5月、WHO総会は新たなパンデミック協定を採択し、国際的な備えの強化に一歩進んだ。

ここでも鍵はガバナンスだ。

「自滅リスク」が上位に来る構造

核・AI・生物災害に共通するのは、人間が設計・運用する複雑システムが誤作動/誤用/誤解で破局へ滑り落ちるという点だ。

自然現象に比べて発生確率を人間側で上下させられる一方、相互依存(電力・通信・物流・金融)が高い現代は、小さなミスが大きな連鎖に化けやすい。

だからこそ「減災可能」かつ「増幅も早い」——これが“人為リスクが上位”という評価の理由である。

今日からできる具体策

  • ホットライン・事故防止の多層化、警戒態勢の誤警報検証ルールの国際標準化。

  • 核弾頭・運搬手段の透明性とデータ共有を広げる(SIPRIやFASの監視の強化)。

AI

  • 高能力モデルの第三者監査(evals)、レッドチームモデル停止・切替手順の義務化。

  • 安全性研究(赤チーム予算)を、発展投資と同規模に公的支援。
    CAIS声明の趣旨を各国指針へ。

生物・感染症

  • デュアルユース研究のレビュー強化、合成生物学ツールのアクセス管理。

  • WHO協定の国内実装(通報、サンプル共有、医療資材の前倒し契約)。

自然ハザード

  • 惑星防衛(NEO監視・軌道偏向技術)の持続投資。

  • 超火山の長期監視過剰な“破局待望論”の是正(科学コミュニケーション)。

まとめ

“世界の終わり”は、自然の一撃よりも、私たち自身の設計と判断の誤りからやって来る可能性が高い。

核・AI・生物災害は、確率を人間が動かせる一方で、誤れば加速的に破局へ向かう

LADbibleのまとめはセンセーショナルに見えつつも、核の冬の定量研究、AI研究者の合意形成の試み、パンデミック協定、そして小惑星監視の実績など、多方面の事実で補強できる。

必要なのは“恐れること”ではなく、誤用を防ぎ、誤作動を検証し、誤解を減らすための地道な制度設計である。

コメント

タイトルとURLをコピーしました