http://www.asyura2.com/22/warb24/msg/534.html
Tweet |
2023年4月28日 12時00分
https://www.tokyo-np.co.jp/article/246810
人工知能(AI)が操縦する戦闘機の試験飛行に、米軍が成功した。えりすぐりのパイロットに限られてきた高度な技術が無人機に置き換われば、航空史は一変する。将来的には、映画のような「殺人ロボット兵器」の出現に近づく可能性すら指摘されている。生成AI登場など急速な進化の一方で、軍事分野の規制は進んでいない。 (西田直晃、山田祐一郎)
◆人的被害なくなり、下がる撃墜の心理的ハードル
「機械を壊し合うだけの不毛な消耗戦。そんな戦争の時代が訪れるのか」
航空評論家の青木謙知氏はAI戦闘機の登場を憂慮する。普及すれば、パイロットの人的被害がなくなり、撃墜の心理的ハードルが下がるからだ。
米国防総省の国防高等研究計画局(DARPA)によると、昨年12月上旬、カリフォルニア州のエドワーズ空軍基地で、F16戦闘機を改造したテスト機の飛行を行った。AIが機体を操縦し、数日間にわたり、出撃を想定した離着陸や武器の使用を試したという。
青木氏は「AI戦闘機は人口減少社会に対応でき、訓練のコストを大幅に抑えられる。無人偵察機はすでに各地に配備されており、戦闘機や爆撃機への応用は難しくないはずだ」と説明しつつ、こう強調する。
「戦争とは、攻撃しなければ自らが攻撃されるような状況で人が人を殺すもの。心に傷を負う兵士もいる。AI戦闘機でも、離れた位置から人が指示を出すことになるはずだが、有人機に対峙たいじするケースもあるだろう。『人が人を殺していいのか』という倫理的な問題がなくなるわけではない」
◆日本も有人機との連携へ技術開発
AI戦闘機が実際に導入されれば、どう運用されるのか。米国や豪州は、有人機の指揮下で戦闘を支える「ロイヤル・ウイングマン(忠実なる僚機)構想」を進めている。
京都産業大の岩本誠吾教授(国際法)は「有人機の前方に無人機を配列し、情報収集や敵の選別を担わせ、後方からパイロットが指令を出す。敵地深くに侵入できる無人機の強みを生かす手法だ。米国は十数年後には、戦闘機の半数を無人機に置き換えようとしており、AI活用もその一環だろう」と解説する。
日本の防衛省も、無人機と有人機が連携する「チーミング」に必要な技術開発に力を注ぐ。「無人機は有人機と異なり、重力を考慮せずに急旋回できる。機体が軽く、製造コストも安いのが大きい」
米軍は、機体同士が連携を取る「無人機(ドローン)部隊」の創設も視野に入れる。「地上にいるオペレーターが一度に多くの機体を操縦できるメリットがある」と岩本氏。「パイロットの育成には時間と費用がかかるが、この方式なら即席のオペレーターを用意できる。搭載したミサイルを発射したり、旧日本軍の特攻のように体当たりに使ったりするのでは」
各国は激しい開発競争を繰り広げている。中国は、AI機と有人機が実戦を想定した空中戦を実施し、AI機が勝ったという論文を2月に発表。ロシアでは2017年、プーチン大統領が「AIを主導する者が世界を制する」と講演で発言。研究支援や人材育成などを進めている。
◆人間の判断に基づかない「完全自律兵器」とは
いずれはAI機と有人機、もしくはAI機同士の戦闘が行われるのか。岩本氏は「全てをAIに委ねると、暴発や命令違反のリスクがある。各国の軍は人間の判断の余地を残すはずだ」との見方だ。
航空軍事評論家の関賢太郎氏も「AI機は使い捨てできるため、おとり作戦のような有人機に不向きな活用法が考えられる。攻撃に使われるとしても、標的を自動追尾するミサイルと同じように、人間の指示で動くことになるだろう」と話す。
これに対し、人間の判断に基づかずにAIで標的を識別して攻撃する完全自律兵器が「LAWS(自律型致死兵器システム)」だ。「殺人ロボット」とも称され、実用化されれば「第三の軍事革命」になると危惧されている。
2021年、国連安全保障理事会の専門家パネルが、内戦下のリビアで前年、兵士らを自動追尾し、攻撃する「殺人ロボット」が使用されたとみられるとの報告書をまとめた。
「LAWSは兵器が標的を自ら選び、自らの判断で攻撃に移る。これに対し米軍などが進めるAI兵器は、自律で判断しないよう事前に決められた条件によって反応する形で攻撃を行う」と、拓殖大の佐藤丙午教授(安全保障論)は説明する。
だが、その境界は近づきつつあるという。映画「ターミネーター」シリーズでは、完全自律型のロボットが自ら意思を持って人間を攻撃する世界が描かれた。「技術的には、完全自律のロボットが出てくるのは時間の問題と指摘される。そのような兵器が出てきても、国際人道法が守られる状況をどう担保するかが重要だ」
LAWSには現在、開発や所有、使用に関する国際的なルールがない。特定通常兵器使用禁止制限条約(CCW)締約国会議は19年、「国際人道法が適用される」「人間の責任の確保がされなければいけない」など11の指針を採択したが、「そもそもAI兵器やLAWSの定義が明確でなく、実効性ある共通ルールについては足並みがそろっていない」と佐藤氏。
◆ウクライナで示される無人兵器の有効性
こうした中、AIや無人兵器は既に実戦に投入されている。英軍事情報誌の東京特派員で国際ジャーナリストの高橋浩祐氏は「ウクライナではまさに自爆ドローンなど無人兵器の有効性が示されている」と指摘。開発は各国で行われ「大型化や長距離化が進み、自動追尾できるなど、どんどん人の手を離れている」と危ぶむ。「ターミネーターのジェームズ・キャメロン監督は『AIは取って代わってきており、既に手遅れ』と述べている。核兵器や自動車がなくならないように、AI兵器も広まっていく」
しかも、関与するのは戦闘だけではない。「認知戦と呼ばれる戦争への機運醸成や正当性を強調するためのフェイク動画や、統制メディアで今後AIが活躍するだろう」と名古屋大の久木田水生准教授(技術哲学)は指摘する。中国では今月、対話型AI「チャットGPT」の軍事転用の可能性に言及した論文発表が相次いだと共同通信が報じた。情報分析や計画立案能力の向上、戦闘シミュレーションの迅速な構築、軍事訓練に効果を上げる可能性があるという。
規制はできないのか。「自律型の兵器をあらかじめ禁止できるのが望ましいが、現実には難しい」と久木田氏。「遠隔操作や自律型兵器は、リスクが少なく戦闘できる。交戦に関して今までとは異なるルールが求められている」と話す。
広島市立大広島平和研究所元准教授の福井康人氏は「開発を進めているのは、兵器として使用する可能性がある国で、規制を望まない。ルールがないため、ウクライナが格好のテストの場となっている。実際にどのような使われ方をしたのか監視しなければならない。人間が兵器をコントロール下に置き、責任を持って国際人道法を守らせるためのガイドラインを早急に作る必要がある」と訴える。
◆デスクメモ
交通機関や公共サービスにシステムトラブルは付き物。でも、核の時代の軍事分野は、1回でも不具合があれば、破滅につながりかねない。技術革新自体は止められないのなら、使えなくする条約や協定が何重にも必要では。映画のようにハッピーエンドとは限らないのだから。(本)
最新投稿・コメント全文リスト コメント投稿はメルマガで即時配信 スレ建て依頼スレ
スパムメールの中から見つけ出すためにメールのタイトルには必ず「阿修羅さんへ」と記述してください。
すべてのページの引用、転載、リンクを許可します。確認メールは不要です。引用元リンクを表示してください。