⏩ 掘り崩される重要な前提、核抑止の終わり?
⏩ 有能な AI によって、民間人が殺されない戦争に?
⏩ 民主的に選ばれていないテック企業のリーダーは説明責任を負う?
米ソ冷戦の緊張が高まっていた1983年9月26日、ソ連の将校だったスタニスラフ・ペトロフは、ミサイル攻撃警戒システムが発した警告を誤りだと判断した。警報は、監視衛星が雲に反射した太陽光をミサイルと誤って認識したことによる誤報だったと後に判明し、ペトロフは核戦争を防ぎ世界を救った人物とされている。
1995年1月25日には、再びロシアの警戒レーダーがアメリカの攻撃が迫っていることを探知し、ボリス・エリツィン大統領(当時)の元に核兵器発動の司令を下すための黒いブリーフケースが届けられた。エリツィンは最終的に反撃を承認せず、再びエスカレーションは回避された。このときレーダーが捕捉していたのは、オーロラを研究するためにノルウェーとアメリカが共同で打ち上げたロケットだった。
こうした事例は、人間が機械の決定に介在し、世界の破滅を免れたケースとして取り上げられる。しかし、人間があらゆる存在より賢いという前提を掘り崩す可能性がある AI の進化は、そうした前例の意義を失わせるかもしれない。
前編の記事では、AI の加速と国際情勢の変化などに伴う戦争ビジネスの変化、中編の記事では実際の戦争における AI の利用方法と、それが「大量暗殺工場」の形成に寄与している点を概観してきた。
後編の本記事では、AI によって加速した戦争をめぐり、今後何が論点になるかを概観する。人間のサポートや判断を介さずに殺傷力を持った戦闘をおこなう自律型致死兵器システム(LAWS)の規制などについては頻繁に取り沙汰されるものの、論点は他にもある。
戦争をめぐる意思決定をおこなう人々や市民たちは、どのようなポイントをめぐって議論する必要があるのだろうか。
今後の論点は?
今後の論点には大きく2つの方向性があり、非戦闘領域と戦闘領域に分かれる。
1. 非戦闘領域における議論
議論の1つ目の方向性は、非戦闘領域における議論だ。
この領域はさらに4つの視点から理解でき、具体的には、(1)複合体は持続するのか(2)選ばれざる代表者に委ねることは正当なのか(3)誰が責任を負うのか(4)国際協調は成立するのかという論点に分けられる。