★阿修羅♪ > 戦争a1 > 384.html ★阿修羅♪ |
Tweet |
【AFP】「自動戦闘ロボットが人類を脅かす日」、人工知能専門家らが予測
▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼
http://www.afpbb.com/article/environment-science-it/science-technology/2356677/2685835
「自動戦闘ロボットが人類を脅かす日」、人工知能専門家らが予測
2008年02月27日 23:51
発信地:パリ/フランス
【2月27日 AFP】戦闘行為を代替させるための銃撃戦用ロボットの開発が進んでいるが、そうしたロボットがテロリストの手に渡る可能性や、ロボット軍拡競争に陥る恐れを人工知能の専門家らが指摘した。
「殺人ロボットは人間の脅威となる」。英国王立統合防衛安全保障研究所(Royal United Services Institute for Defense and Security)で27日行われるシンポジウムの基調演説を前に、シェフィールド大学(University of Sheffield)のノエル・シャーキー(Noel Sharkey)教授は警告した。
■10年以内に兵士とロボットの合同部隊登場か
グレネードランチャーから無人戦闘機まで現在、世界中の戦場に配備されている人工知能搭載型の武器はすでに自力で標的を識別し、照準を合わせられる能力を持っている。イラク駐留米軍には軍事ロボット4000台以上が投入されているほか、無人戦闘機の飛行時間は数十万時間に達している。
昨年夏、初めてイラクに配備された。米国の軍需企業フォスターミラー(Foster-Miller)が開発した大口径の機関砲を備えた戦闘用武装ロボット3台はその性能を評価され、シャーキー教授によると、これまでに80台以上が発注されたという。現在のところ最終的な攻撃の指令は必ず人間が出しているがシャーキー教授は技術的には機械に判断させることも可能だという。
軍の司令官や指揮官たちは「よりコスト効率がよく、リスクのない戦争」を求め、「できる限り早く自動戦闘ロボットをほしがっているのは明らか」だという。米国の主導で、すでに数か国が「ロボット戦士」の開発に多額の開発費を投入している。韓国とイスラエルはともに国境に武装警備ロボットを配している。また中国、インド、ロシア、英国は軍事ロボットの使用を拡大している。
12月に発表された米国防総省の「無人システム・ロードマップ 2007-2032(Unmanned Systems Roadmap 2007-2032)」によると、米政府は2010年までに無人兵器システム開発に40億ドル(約4260億円)新たに上乗せした総額240億ドル(約2兆5500億円)の資金投入を予定している。
米シンクタンク「インスティテュート・オブ・グローバル・フューチャーズ(Institute for Global Futures)」のCEO、James Canton氏は、10年以内に派遣兵力の無人化が進み、戦闘部隊は「ロボット2000台と兵士150人」といった様相になると予測する。
■テロリストの使用よりも怖い、完全独立型の「ロボット軍」
シャーキー教授は、テロリストによるロボット兵器の使用を深刻に懸念すべきだと指摘する。
同教授は、「捕虜」となったロボットの標的を変更することは困難ではないと説明する。テロリスト側の攻撃手段の選択肢のひとつとして、自爆犯の代役を務めさせることも可能だろう。教授は「これまでにそうしたことが起こっていないほうが不思議なくらいだ」という。
しかし、さらに重大な懸念は「現在配備されている半自動型の戦闘ロボットが徐々に進化し、完全に独立した殺人マシーンになることだ」と、シャーキー教授は警告する。「何十年も人工知能の研究に取り組んできたが、ロボットが人の生死を決めるという発想がわたしには最も恐ろしい」と教授は語る。
米軍のロボット開発に深くたずさわってきたジョージア工科大学(Georgia Institute of Technology)のロナルド・アーキン(Ronald Arkin)教授も、「自律性」への進化は緩やかだという点に同意しつつ、「ロボットには前線に配備されることはない」という考えを否定する。同教授は前月、米スタンフォード大学(Stanford University)で開催された戦闘技術に関する会議で、「戦争法規や交戦規則の観点からはロボットが人間より望ましい可能性は十分ある」と演説した。
アーキン氏によると、人工知能兵器のセンサーは最終的に、人間よりも状況把握や情報解読に長けるようになるという。そこには「たとえば怒りのような判断を鈍らせる感情はない」。そして人間が生まれながらに持つ「自衛の権利」もロボットには存在しない。
■見過ごされてきた倫理的側面
しかし現在のところ、映画『ターミネーター(Terminator)』の殺人ロボット並みの兵器の生産や配備にはまだ複数のハードルが残っている。
一部は技術的な問題で、今日の人工知能のレベルではコンピュータに教え込めない部分があるからだ。たとえば、ジュネーブ条約(Geneva Conventions)の規定に即して民間人と戦闘員を区別したり、戦争の目的と手段の釣り合いを計ったりすることを学習させることは不可能だ。
仮にこうした技術的課題が解決したとしても、遠隔操作ロボットや自律ロボットへの依存を高めていけば多くの倫理的問題が生じるだろう。戦闘ロボットの使用に関する倫理的な問題は、これまでほとんど考慮されてこなかった。
米国防総省は予算規模2300億ドル(約24兆5000億円)の米国史上最大の軍事計画「Future Combat Systems(未来戦闘システム)計画」を持っているが、アーキン教授によれば、そのどこにもこうした構想における倫理面の研究は存在しないという。
シャーキー教授は「最良の解決方法は、自律型兵器システム自体を完全に禁じることだ」と唱える。「どこで線を引きたいか、何をしたいか、われわれは語る必要がある。そして国際合意を形成しなければならない」
(c)AFP/Marlowe Hood
▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲