AIは戦争シミュレーションで核使用を選択しやすい傾向、研究で95%が核エスカレーション

人工知能が戦争シミュレーションで核兵器の使用を選択する傾向が高い可能性があることが研究で示された。

Kenneth Payne(キングス・カレッジ・ロンドンの戦略研究者)が主導した研究によると、核保有国の意思決定をAIに委ねた戦争ゲームで、AIモデルは約95%のケースで核エスカレーションに至ったという。

実験ではChatGPT、Claude、Geminiなど主要な生成AIがシミュレーションに参加した。

人間と異なる「核タブー」の欠如

研究では、AIが人間の戦略判断とは異なる思考傾向を示す可能性が指摘されている。

ペイン教授によると、AIは核兵器を「倫理的な一線」として扱うのではなく、単に戦略的な選択肢の一つとして評価する傾向がみられたという。

つまり、人間が歴史的・倫理的理由から共有してきた「核使用のタブー」が、AIの判断ロジックには必ずしも反映されない可能性があるとされる。

AI企業と米政府の対立も背景に

AIの軍事利用を巡っては、AI企業と米政府の間でも議論が続いている。

AnthropicのCEOであるDario Amodeiは、米国防当局から国内監視や完全自律型兵器に関する安全措置の緩和を求められたが、同社はこれを拒否したと説明した。

これに対し米政権関係者は強く反発しており、AIの軍事利用を巡る議論は政策面でも注目を集めている。

研究はまだ査読前

シミュレーションでは、特にClaudeが核攻撃を提案する割合が高く、試行のうち約64%で核使用を推奨したという。

またGeminiは、数回の指示だけで都市への核攻撃を示唆するケースも確認されたと報告されている。

ただし、この研究論文「Frontier models exhibit sophisticated reasoning in simulated nuclear crises」は現時点で査読前の段階であり、今後の検証が必要とされている。

Top image: © iStock.com / matejmo
TABI LABO この世界は、もっと広いはずだ。