上空を見上げると、巨大な気球が漂っている。十数年前にパレスチナ自治区ガザを取材で訪れたときのことだ。 「イスラエル軍の監視気球だ。高解像度のカメラを通じて、私たち住民の動きを一日中、観察、記録している」 傍らにいたパレスチナ人の大学教授が教えてくれた。 1本の記事を読み、その気球のことを思い出した。先月3日に配信されたイスラエルのネットメディア「+972マガジン」と「ローカルコール」の合同調査報道である。 ガザでの戦争で、イスラエル軍が人工知能(AI)システムをどう使っているのかという内容だ。6人の情報将校が匿名で証言したという。 読んでみると、約3万5千人ものガザ住民の犠牲者のうち、約7割を女性と子どもが占める理由がよく分かる。 記事によると、イスラエル軍は「ラベンダー」と「パパはどこ?」という二つのシステムを組み合わせている。 前者は標的となる人を選ぶシステムだ。イスラム組織ハマスなどの戦闘員と思われる約3万7000人を抽出した。前提としてガザの住民全体のデータが入っている。気球の記憶がよみがえったゆえんだ。 既知の戦闘員のデータを基に行動の相似性や交流関係、通話歴などを点数化し、上位を戦闘員(標的)にした。 だが、これはあくまで推定に過ぎない。誤差も10%程度ある。あだ名が同じというだけで誤認された例もある。 標的に選んだ人物は後者の行動監視システムに登録される。帰宅した時点で爆撃のゴーサインが出る仕組みだ。 自宅を爆撃対象にしたのは捕捉が確実なためだ。当然、家族は巻き添えになる。爆撃前に標的の人物が再び外出すれば、家族だけが殺される。 今回、イスラエル軍は敵の下級戦闘員への攻撃についても民間人(家族)の巻き添えを許した。戦闘員1人につき15人から20人という。無論、国際法違反だ。ちなみに標的の人物が旅団長など大物であれば、100人以上という。 さらに戦費削減のため、誘導装置のない精度の低い大型爆弾を使った。建物全体を破壊することになり、周辺の民間人の犠牲を増やした。 この報道内容をイスラエル軍は否定している。だが、国連のグテレス事務総長は深い憂慮とともに「生と死の決断をアルゴリズムに委ねるべきではない」と語った。 AI兵器はおぞましい。ただ、それを使うと決めたのは人間だ。その関係は無差別爆撃や原爆と変わらない。 その決断の底に差別思想が透ける。アラブ人を対等な人間と思えば躊躇(ちゅうちょ)しそうだが、そうは考えない言説がこの国には日常的にあふれている。 それでも殺人には心の痛みを感じよう。その痛みは安全装置でもある。だが、AI兵器の活用は安全装置を緩めてしまう。差別感で心を麻痺(まひ)させ、機械に罪悪感を押し付ける。もはや狂気としか思えない。
鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。