■手段を選ばないAI
今回の研究は、AIが相互破滅のリスクに対する認識を十分に持ち合わせていない可能性を浮き彫りにしたとの見方が大勢だ。人間は核爆弾の投下や核実験を経験し、冷戦期以降、核戦争の相互破壊性を理解することで抑止力としてきた。しかしAIは、それを単に効率的な手段として計算するにとどまっている。米国のプリンストン大学の趙通(ジャオ・トン)教授は「AIは人間のように恐怖を感じないかもしれないことから、人間が認識するリスクの重みを理解できない可能性がある」と指摘する。
また、英アバディーン大学のジェームズ・ジョンソン教授は「人間が高リスクの決定に慎重に反応するのとは対照的に、AIは互いの反応を増幅させ、潜在的に破滅的な結果をもたらす恐れがある」と述べた。一方が強硬に出れば、最適化を追求する他方もさらに強く応じるといった構図だ。人間同士の交渉では、視線やためらい、沈黙などがシグナルとして機能するが、AI同士ではこうしたアナログ的な制御装置が存在しない。
■軍事分野でのAI活用、現実でも論争に
AIの軍事利用は、コンピューター内の仮想戦争を超え、すでに現実の問題となっている。最近、米国防総省とClaudeの開発元であるアンスロピックは、AIの軍事利用の範囲を巡って対立している。発端は、米国が1月、ベネズエラのニコラス・マドゥロ大統領の逮捕作戦にClaudeを活用した事実が明らかになったためだ。アンスロピックは「AIが米国の国家安全保障に貢献することはあり得るが、殺傷兵器や国民の大規模な監視に利用されるべきではない」との立場を表明した。同社は創業当初から「安全なAI」を掲げ、AI規制に賛成してきた。一方、米国防総省は軍事利用に制限を設けることはできないとの姿勢を示している。アンスロピックが制限を解除しなければ、契約を取り消し、AIモデルの使用も制限するとの警告を発している。
韓国国防安保フォーラムのシン・ジョンウ事務総長は「AIがデータを総合して効率的な戦略を計算した場合、核兵器を選択する可能性は排除できない」とし「最終的な決定権は人間が握るべきだ」と促した。また、鮮文大学メディア・コミュニケーション学部のオ・セウク教授は「人命に関わる問題や大規模な監視のように人権侵害の恐れが高い軍事分野では、AIの使用を厳格に禁止するのが合理的だ」と指摘した。
チェ・ウォヌ記者