http://www.asyura2.com/17/warb21/msg/422.html
Tweet |
ロボット兵器が「学習」すれば戦死者は増える。軍事のプロが懸念
http://www.mag2.com/p/news/266429
2017.12.09 小川和久『NEWSを疑え!』 まぐまぐニュース
「ロボット兵器が戦争に使われる」…まるで映画の中だけのような話が現実になりつつあるようです。では、人を殺すために開発されたロボット兵器を実際の戦争に投入すると、戦死者は今まで以上に増えることになるのでしょうか。軍事アナリストの小川和久さんが主宰するメルマガ『NEWSを疑え!』では、静岡県立大学グローバル地域センター特任助教の西恭之さんが、ロボット兵器の規制すべき面とその定義と比較しながら解説しています。軍事のプロから見た、自律型ロボット兵器の現状と懸念点とは?
【Q】:ロボット兵器が投入されると、戦争全体の戦死者は減ると思いますか? 増えると思いますか?
【A】:ロボット兵器は既に投入されており、アイアン・ドームなどは戦死者を減らしている。しかし、群れとして行動し、環境と敵味方の行動をフィードバックとして学習するロボット兵器が投入されると、人間が予想できない行動をして、戦死者が増えるおそれが強い。
自律型ロボット兵器を規制するには
● テスラCEOら、ロボット兵器禁止で公開書簡 国連に訴え(CNN.co.jp)
米国の電気自動車メーカー・テスラのイーロン・マスク氏ら、人工知能やロボット工学に携わる企業の創業者が去る8月21日、自律型ロボット兵器(致死性の自律型兵器システム)の開発に懸念を表明する公開書簡を発表した。書簡は、この種の兵器が開発されれば、「武力紛争の規模が人類の理解を超えるスピードでかつてなく拡大」する可能性を警告し、その禁止・制限を検討する国連の動きに協力を申し出ている。
このニュースに関して、「今後ロボット兵器が投入されると、戦争全体の戦死者は減るのか増えるのか?」というテーマの記事を、『NEWSを疑え!』の配信会社の一つである、まぐまぐ運営の「MAG2 NEWS」から依頼された。
本稿では、自律型ロボット兵器の定義を比較検討し、1)こうした兵器はすでに使用されており、使用していれば民間人の死を防げたケースもあること、2)どの兵器も武力紛争法(戦時国際法)に規制されていることを指摘する。そして、それでも禁止または規制を検討すべき面として、ロボット兵器の複雑適応系における機械学習を挙げる。
米国防総省は、自律型兵器システムを「起動されたあとは、操作員の介入を受けずに、個別の目標を選び攻撃することができる」と定義している。[1] この定義は、そうした能力をもつ兵器システムの使用について、決定する人間の側の責任を強調している。マスク氏らの2015年の公開書簡も、この定義に準拠している。
しかし、同省は、「あらかじめ操作員が選んだ個別の目標または目標の集団しか攻撃しないように作られた」半自律型兵器システムの例に、発射後に目標を探知するミサイルを挙げている。この考え方に立てば、兵士と同程度に自律的な兵器も、半自律型に分類される余地がある。
このように、自律性を理由にロボット兵器を国際的に禁止または制限するのであれば、「人命を奪うかどうかは人間が決める」という武力紛争法の前提との関係において、自律性を定義する必要がある。
この点で有用なのは、イェール大学ロースクールのレベッカ・クロートフ講師による、「『自律型兵器システム』とは、収集した情報とあらかじめプログラムされた制約条件に基づいて、独立して目標を選び攻撃する能力のある兵器システム」という定義だ。[2]
この定義には、艦艇用近接防御火器システム(CIWS)、艦隊防空を主な目的とするイージスシステム、対レーダー攻撃機ハーピーなど徘徊型兵器、ロケット弾・砲弾・迫撃砲弾迎撃兵器(C-RAM)アイアン・ドームなどが該当する。
イージス艦が民間人の命を奪った誤射事件として有名な1988年のイラン航空655便撃墜事件は、実は自律型兵器システムを使用していれば民間人の死を防げたケースである。米巡洋艦「ヴィンセンス」のイージスシステムは、イラン航空機が高度を上げて遠ざかりつつあることを認識していたが、乗員は降下・接近中の戦闘機と誤認し、対空ミサイルを発射して撃墜した。「ヴィンセンス」のイージスシステムが、全自動で防空戦闘するカジュアルティ(乗員死傷)モードに設定されていれば、誤射はなかった可能性が高い。
そもそも、ロボット兵器を一律に禁止するか、規制を一から考える必要があるという、過去5年間にわたる議論は、ロボット兵器が法の空白地帯であるという前提に立っているのであれば、間違っている。武力紛争法は、兵器の種類にかかわらず、戦争犯罪の基準を示しているからだ。
武力紛争法の二大原則は、1)戦闘員と非戦闘員を区別し、非戦闘員は攻撃目標にしないこと、2)目標を攻撃する場合に想定される非戦闘員の巻き添え被害は、目標の軍事的価値に比べて、不釣り合いに大きくなってはならない、というものである。
現在のロボット兵器は、このような判断力がないためもあって、軍事物しか攻撃しないように設計されているか、非戦闘員のいない非武装地帯などに配備されている。そこにおいては、ロボット兵器が非戦闘員の死者を増やすかどうかは、使い方による。
しかしながら、ロボットが群れとして行動し、環境と敵味方の行動をフィードバックとして学習する複雑適応系においては、人間が予想できない創発的行動が表れる可能性がある。この場合、ロボット兵器の投入を決める立場にある人間は、武力紛争法に違反する結果が生じる可能性を推定するための情報をもたないので、投入を決めること自体が戦争犯罪にあたるおそれがある。
ロボット兵器に対するマスク氏らの懸念は、複雑適応系における機械学習に論点を絞ることになれば、説得力が増すと思われる。(静岡県立大学グローバル地域センター特任助教・西恭之)
(参考文献)
[1]Department of Defense Directive 3000.09, Autonomy in Weapon Systems. 2012年11月.
[2]Rebecca Crootof, ”The Killer Robots are Here: Legal and Policy Implications,” Cardozo Law Review 36:1837-1915, at 1854. 2015年.
image by: Shutterstock.com
投稿コメント全ログ コメント即時配信 スレ建て依頼 削除コメント確認方法
スパムメールの中から見つけ出すためにメールのタイトルには必ず「阿修羅さんへ」と記述してください。
すべてのページの引用、転載、リンクを許可します。確認メールは不要です。引用元リンクを表示してください。