「ロボット兵器が戦争に使われる」…まるで映画の中だけのような話が現実になりつつあるようです。では、人を殺すために開発されたロボット兵器を実際の戦争に投入すると、戦死者は今まで以上に増えることになるのでしょうか。軍事アナリストの小川和久さんが主宰するメルマガ『NEWSを疑え!』では、静岡県立大学グローバル地域センター特任助教の西恭之さんが、ロボット兵器の規制すべき面とその定義と比較しながら解説しています。軍事のプロから見た、自律型ロボット兵器の現状と懸念点とは?
【Q】:ロボット兵器が投入されると、戦争全体の戦死者は減ると思いますか? 増えると思いますか?
【A】:ロボット兵器は既に投入されており、アイアン・ドームなどは戦死者を減らしている。しかし、群れとして行動し、環境と敵味方の行動をフィードバックとして学習するロボット兵器が投入されると、人間が予想できない行動をして、戦死者が増えるおそれが強い。
自律型ロボット兵器を規制するには
● テスラCEOら、ロボット兵器禁止で公開書簡 国連に訴え(CNN.co.jp)
米国の電気自動車メーカー・テスラのイーロン・マスク氏ら、人工知能やロボット工学に携わる企業の創業者が去る8月21日、自律型ロボット兵器(致死性の自律型兵器システム)の開発に懸念を表明する公開書簡を発表した。書簡は、この種の兵器が開発されれば、「武力紛争の規模が人類の理解を超えるスピードでかつてなく拡大」する可能性を警告し、その禁止・制限を検討する国連の動きに協力を申し出ている。
このニュースに関して、「今後ロボット兵器が投入されると、戦争全体の戦死者は減るのか増えるのか?」というテーマの記事を、『NEWSを疑え!』の配信会社の一つである、まぐまぐ運営の「MAG2 NEWS」から依頼された。
本稿では、自律型ロボット兵器の定義を比較検討し、1)こうした兵器はすでに使用されており、使用していれば民間人の死を防げたケースもあること、2)どの兵器も武力紛争法(戦時国際法)に規制されていることを指摘する。そして、それでも禁止または規制を検討すべき面として、ロボット兵器の複雑適応系における機械学習を挙げる。
米国防総省は、自律型兵器システムを「起動されたあとは、操作員の介入を受けずに、個別の目標を選び攻撃することができる」と定義している。[1] この定義は、そうした能力をもつ兵器システムの使用について、決定する人間の側の責任を強調している。マスク氏らの2015年の公開書簡も、この定義に準拠している。
しかし、同省は、「あらかじめ操作員が選んだ個別の目標または目標の集団しか攻撃しないように作られた」半自律型兵器システムの例に、発射後に目標を探知するミサイルを挙げている。この考え方に立てば、兵士と同程度に自律的な兵器も、半自律型に分類される余地がある。
このように、自律性を理由にロボット兵器を国際的に禁止または制限するのであれば、「人命を奪うかどうかは人間が決める」という武力紛争法の前提との関係において、自律性を定義する必要がある。