http://www.asyura2.com/23/warb25/msg/526.html
Tweet |
2024年5月14日 06時00分
https://www.tokyo-np.co.jp/article/326874?rct=world
上空を見上げると、巨大な気球が漂っている。十数年前にパレスチナ自治区ガザを取材で訪れたときのことだ。
「イスラエル軍の監視気球だ。高解像度のカメラを通じて、私たち住民の動きを一日中、観察、記録している」
傍らにいたパレスチナ人の大学教授が教えてくれた。
1本の記事を読み、その気球のことを思い出した。先月3日に配信されたイスラエルのネットメディア「+972マガジン」と「ローカルコール」の合同調査報道である。
ガザでの戦争で、イスラエル軍が人工知能(AI)システムをどう使っているのかという内容だ。6人の情報将校が匿名で証言したという。
読んでみると、約3万5千人ものガザ住民の犠牲者のうち、約7割を女性と子どもが占める理由がよく分かる。
記事によると、イスラエル軍は「ラベンダー」と「パパはどこ?」という二つのシステムを組み合わせている。
前者は標的となる人を選ぶシステムだ。イスラム組織ハマスなどの戦闘員と思われる約3万7000人を抽出した。前提としてガザの住民全体のデータが入っている。気球の記憶がよみがえったゆえんだ。
既知の戦闘員のデータを基に行動の相似性や交流関係、通話歴などを点数化し、上位を戦闘員(標的)にした。
だが、これはあくまで推定に過ぎない。誤差も10%程度ある。あだ名が同じというだけで誤認された例もある。
標的に選んだ人物は後者の行動監視システムに登録される。帰宅した時点で爆撃のゴーサインが出る仕組みだ。
自宅を爆撃対象にしたのは捕捉が確実なためだ。当然、家族は巻き添えになる。爆撃前に標的の人物が再び外出すれば、家族だけが殺される。
今回、イスラエル軍は敵の下級戦闘員への攻撃についても民間人(家族)の巻き添えを許した。戦闘員1人につき15人から20人という。無論、国際法違反だ。ちなみに標的の人物が旅団長など大物であれば、100人以上という。
さらに戦費削減のため、誘導装置のない精度の低い大型爆弾を使った。建物全体を破壊することになり、周辺の民間人の犠牲を増やした。
この報道内容をイスラエル軍は否定している。だが、国連のグテレス事務総長は深い憂慮とともに「生と死の決断をアルゴリズムに委ねるべきではない」と語った。
AI兵器はおぞましい。ただ、それを使うと決めたのは人間だ。その関係は無差別爆撃や原爆と変わらない。
その決断の底に差別思想が透ける。アラブ人を対等な人間と思えば躊躇(ちゅうちょ)しそうだが、そうは考えない言説がこの国には日常的にあふれている。
それでも殺人には心の痛みを感じよう。その痛みは安全装置でもある。だが、AI兵器の活用は安全装置を緩めてしまう。差別感で心を麻痺(まひ)させ、機械に罪悪感を押し付ける。もはや狂気としか思えない。
最新投稿・コメント全文リスト コメント投稿はメルマガで即時配信 スレ建て依頼スレ
スパムメールの中から見つけ出すためにメールのタイトルには必ず「阿修羅さんへ」と記述してください。
すべてのページの引用、転載、リンクを許可します。確認メールは不要です。引用元リンクを表示してください。