http://www.asyura2.com/14/warb13/msg/596.html
Tweet |
ロボ兵器の規制論注視を
岩本誠吾 京都産業大学教授
オバマ米大統領が4月の来日時に二足歩行ロボットとサッカーに興じ、安倍晋三首相は6月にロボットによる介護補助を体験した。ロボットがインターネットに続く「次の産業革命」の主役であることを示す象徴的な光景であった。6月発表の日本再興戦略の改訂版もロボットによる革新に言及した。今後は産業用だけでなく介護・防犯・農作業・災害用など多分野で著しい成長が見込まれる。
福島第1原子力発電所の事故で米軍の無人偵察機が情報収集活動をしたように、ロボットは軍事用にも利用できる。ロボット技術を使った無人兵器、いわゆるロボット兵器や軍事ロボットは今や現代戦に不可欠な存在である。
たとえば、無人航空機の保有国は日本を含む80カ国あまりに達する。爆弾処理ロボットなどの無人陸上車両も、米軍は2010年秋までに約8000両を戦場に投入したという。そのほか機雷捜索用の無人水中航走体も現存する。
ロボットとはプログラムされた方法で感知し、行動する能力を有する機械を指す。情報収集や警戒監視など非戦闘用の軍事ロボットは人的被害を生じさせないので、本稿の議論の対象は、武力攻撃を行う戦闘用に限る。
ロボット兵器が開発・使用されるのは省力化に加え、兵士に代わってデンジャラス(危険な)・ダーティー(汚染された)・ダル(単調な)・ディープ(奥深い)「4D任務」を遂行し、攻撃側の犠牲者を出さないからである。
それらは科学技術とともに進化している。現在使用中の大半は遠隔操作の無人戦闘機のように人間の命令でしか標的を選択・攻撃できない「人間統制型」である。
事前に設定された標的を自動的に探知・追尾・迎撃するが、人間が戦闘行為を途中で停止できるセミ自律型ともいえる「人間監視型」もある。航空機やミサイルの対空脅威に対する自動防空システムなどが該当し、すでに海上でも陸上でも実戦使用されている。この段階までは、まだ人間の意思をロボット兵器による敵対行為の開始や中止に反映させることができる。
最近は自律性を高める研究が進み、自律走行する警戒監視用の無人陸上車両や、空母で自律的に発着艦する無人艦載機の開発の成功例が出てきた。人工知能を含む研究がさらに進めば、20〜30年後には、人の意思を介在せずに機械独自の判断で標的を選択し、攻撃する完全「自律型」殺傷兵器の出現が予測される。映画「ターミネーター」のごとく殺人ロボットが戦場で自分自身の判断で人間を殺傷する日がくるかもしれない。
そんな事態を回避すべく、昨年4月、国際非政府組織(NGO)「殺人ロボット阻止キャンペーン」が発足した。完全自律型殺傷兵器の開発、生産および使用の先制的かつ包括的禁止を国際条約形式で実現することを目的とする。
その動きに呼応し、昨年11月の特定通常兵器使用禁止制限条約(CCW)締約国会議は、初めてロボット兵器問題を取り上げ、今年5月に非公式専門家会合を開催した。近未来兵器である殺人ロボットの規制議論が、通常兵器規制を専門とするCCW国際会議で始まったことになる。手塚治虫氏の漫画「鉄腕アトム」の「ロボット法」にある規則「ロボットは人を傷つけたり殺したりしてはならない」を現実の国際法規則として制定しようとする動きといえる。
近未来の自律型ロボット兵器は、人間より冷静に行動し、興奮や恐怖など人間の感情による判断ミスをしないといわれる。半面、いくつかの本質的な問題も内在する。
まず、人間と同程度の状況認識や武力行使の判断ができるロボットが開発されるのかという技術的側面。次に、そもそも機械に人間の生死の決定権を委ねることが許されるのかという倫理的側面。さらに、自律型ロボットは戦闘員と文民を区別する原則を順守し、文民殺害を回避できるのかという国際法的側面である。
このほか、サイバー攻撃のハッキングに対する脆弱性や機械の誤作動の危険性も考えられる。専門家会合では、これらの問題とともに、どこまでロボット兵器の自律性を認めるのか、言い換えれば、どこまで人間の関与が必要なのかも議論された。
日本を含む各国で自律型ロボット兵器の議論は始まったばかりで、まだ存在しない兵器を想像して議論するので意見が錯綜(さくそう)している。今は認識を共有するために、国家、NGO、軍人、科学者、倫理学者および国際法学者など様々な立場からの意見交換が求められる段階である。その議論のなかから、CCWが目指す法規制の方向性が収束していくだろう。
CCW締約国会議は今年11月に自律型ロボット兵器を次年度の議題に決定し、引き続き議論することになるだろう。その場合の注意点は、軍事用の規制が民生用ロボット技術の発展を阻害してはならないということである。
あくまで法規制の対象は「殺傷」兵器に限定される。軍民どちらにも利用できるデュアルユース性ゆえに、包括的なロボット技術の研究開発の一時停止や禁止は望ましくない。国際法の兵器規制は従来、軍事的利益と人道的考慮の2つの視点から議論されてきた。ロボット兵器の場合、これらに科学技術の発展という新たな視点が加わる。
重要なことは、コンセンサス(合意)方式であるCCWの枠内で十分議論を尽くし、規制積極派と消極派の一致点を見いだすこと、さらに、ロボット技術の研究開発国も合意できる範囲で最大限の規制法文書を目指すことである。
CCW枠内の合意成立を断念し、一足飛びに有志連合による規制レベルの高い包括的禁止国際条約を目指すことは避けるべきである。法規制が最も必要な軍事大国が敷居の高い国際条約を受け入れず、全くの無法規制状態となる可能性がある。また、民生技術が阻害される恐れもある。
議論は具体論に徹すべきである。ロボット兵器が攻撃的か防御的(反撃に限定)か。兵器の投入状況が複雑で予測不能なものか単純で予測可能なものか。兵器が可動式か固定式か。可動式の場合にその行動範囲が広範か狭小か。稼働時間が長期的か一時的か。こうした分析から、ロボット兵器の受け入れ可能な自律性の範囲が確定されよう。
欧州連合(EU)は12年、欧州委員会への規制提案を含むロボット規制指針を作成するため、2年期限の「ロボ法プロジェクト」を立ち上げた。今後、欧州のロボ法の制定に向け、民生用ロボットの国際的な安全性規格や安全認証制度のルール作りが進展するだろう。日本もその動向に注目しつつ、包括的なロボ法の整備が急がれる。
同時に日本は官民を挙げてCCW枠内での自律型殺傷ロボット兵器の法規制に関心を持ち、それが民生用ロボット技術の発展への阻害要因とならないよう、国際議論を主導する必要がある。
もちろん、最終成果としての法規制文書が成立するまで、国家は規制なく殺傷ロボットの研究開発をしていいわけではない。日本を含む各国はそれぞれの国内手続きに従い、研究開発段階であっても、新兵器である自律型ロボット兵器の性能や機能が国際法に合致しているのか否かの法審査をしなければならない。これは1977年のジュネーブ諸条約の第1追加議定書36条に基づく国際法義務である。
<ポイント>
○将来は人間介さぬ「自律型」の殺傷兵器も
○人間の殺傷を防ごうと国際規制論が始動
○規制は民生用発展を妨げないことも重要
いわもと・せいご 56年生まれ。神戸大博士課程単位取得退学。専門は国際人道法
[日経新聞7月31日朝刊P.26]
スパムメールの中から見つけ出すためにメールのタイトルには必ず「阿修羅さんへ」と記述してください。
すべてのページの引用、転載、リンクを許可します。確認メールは不要です。引用元リンクを表示してください。