見出し画像

【イスラエル無差別攻撃の理由】AIで標的や被害規模を決定 新しい絶滅攻撃への反対運動を!(小倉 利丸)

JCA―NET(通信NGO) 小倉 利丸

無差別爆撃でなく計画的ジェノサイド

  イスラエルによるガザ虐殺は、AI(人工知能)を全面活用することで、新しい絶滅戦争となってしまっている。これを批判し、対抗運動を訴える。
  ウクライナでもパレスチナでも、戦争がみせる「外観」に大きな変化はない。地上には戦車と大砲が、空には戦闘機やミサイルが飛び交い、重武装した兵士たちが空爆で廃墟と化した街を進軍する。テレビに映しだされたこの見慣れた風景のなかで、「サイバー」を直感的に感じることは難しい。せいぜいドローン攻撃にその兆候を見出すことができるくらいだろう。
  だが11月末、イスラエル国内で活動している独立系のメディア、「+972とローカル・コール」が、イスラエルの空爆メカニズムについて調査を公表した(注)。ここで軍関係者へのインタビューなどから、AIがジェノサイドに果たしている深刻な問題が具体的に指摘された。
  私はこの報告を読むまで、ガザの都市破壊は無差別爆撃だ、という印象を持っていた。だが現実には、標的をあらかじめ特定し、巻き添えの被害すら折込済みの計画的な攻撃の結果としての都市破壊だったのだ。
  「+972」の調査によれば、イスラエルのガザでの標的選択の仕組みを支えているのは、「Habsora(福音)」と呼ばれるAIによる標的「生産」システムだという。ガザの標的は、大まかに4つのカテゴリーに分けられる。①地上の軍事施設、②地下のトンネル(その上にある家屋も)、③都市部の高層ビルや公共施設(パワーターゲットと呼ばれる)、④ハマースの戦闘員の家(家族)、だ。
  戦争開始からの55日間で、爆撃された標的は2687。そのうち1329がパワーターゲットだ。都市機能をマヒさせ、北部の人口を南部に強制移動させるために用いられてきたと思う。

ハマースを治療した医師や見舞いの家族をAIで標的に

  戦争に諜報活動は不可欠であり、敵についてのデータが網羅的に収集されるのは、今にはじまったことではない。イスラエル国防軍や情報機関のデータベースには、殺害の標的として、ハマースの幹部だけでなく、下級の構成員や政治部門のメンバー、そして彼等の家族や友人など人間関係も含めた膨大なデータが含まれていると思われる。
  このデータをどのくらい蓄積して実際の戦闘行為に適用できるかは、コンピュータの情報処理能力に依存する。この詳細なデータから標的がいる可能性のある様々な場所が爆撃の標的の候補になる。先の調査では、イスラエルはかつて年間50の標的を生み出すのがやっとだったのが、現在では一日100のペースで標的を生み出せるという。
  コンピュータの情報処理が高度化し、人間関係が事細かにデータ化されればされるほど、それまでは問題にされなかった出来事や人間関係に「意味」が与えられ、標的候補に組み入れられる。ハマースの戦闘員も負傷すれば病院で手当を受ける。この医療行為で、医師は戦闘員や家族と関係をもつことになる。
  だがこの関係がどのように意味づけられるのかは、データを処理して解釈する「Habsora」次第だ。それをもって病院が軍事施設と同等に扱われるべきでもない。だがイスラエルのAIは、こうした関係性を口実に、攻撃の標的として正当化する作業を機械化したのだろう。

ガザ南部ハーン・ユーニスのナセル病院で治療を受ける子どもたち(10月24日)

「何人巻き添えにできるか?」
残り砲弾数で冷酷にシステム化

  ジェノサイドをもたらすAIの具体的な仕組みとして、巻き添えの人数についてのAIの設定がある。爆撃対象の標的の選択や、そこで用いられる爆弾の性能は、巻き添えとなる人たちの数をどのように計算するのかで変わってくる。
  標的本人だけを殺害し、巻き添えをゼロにするのか。家族であれば許容するのか。あるいはより一般的に巻き添えとなる人数を10人までとするのか、50人までか。子どもの巻き添えを許容するのか。こうしたことは、全てコンピュータでプログラム化可能だ。
  そして標的の数は、イスラエル軍が一日に消費できる砲弾や飛行できる航空機の数などによって上限が決まる。供給可能な砲弾の数が多ければ、標的の数をこの上限に合わせて多く設定することになる。
  こうした作業がAIで自動化されて、標的をより多く「生産」する。このAIが駆動する大量殺戮生産システムでは、質より量が重視される。現存の兵器を最適に使用できるように、いかに標的を「生産」するのかが評価の基準になるという。
  こうして、全てを数値化する標的生産作業の説明をすること自体が私には苦痛でしかないが、イスラエルではこうした作業がルーティーンで行なわれているのだ。

AIプログラム規定する国家イデオロギー

  戦争の様相は、確実に新たな次元に入った。AIの戦争関連プログラムは、殺傷力のある兵器として登録されるべきだ。
  現在のガザでの殺戮の規模を実現可能にしているのは、戦闘機や戦車や爆弾そのものだけではなく、これらをいつどこにどれだけ使用するのかを決定する自動システムとしてのAIにある。
  AIがこのように戦争で用いられる前提には、シオニズム(ユダヤ人国家建設運動)のイデオロギーを背景とした現在のイスラエルの国家理念と、極右を含む現政権の基本的な性格がある。このイデオロギーを軍事的な実践において現実化しているのが「Habsora」なのだ。
  どこの国でも、その国のナショナリズムのイデオロギーや敵意の構図により、国策としてのAIの性格も規定される。日本政府もAIを国策利用することにのみ関心があり、安保防衛3文書でも、しきりにAIを軍事安全保障に利用することが強調されている。

サイバー領域を考慮した反戦運動を

  AIは実際にすでに殺傷力のある武器の一部を担っている。にもかかわらず、AIを軍事安全保障分野で使用することについては、G7でもEUでも国連でも明確な禁止を打ち出してはいない。
  AIの軍事利用は、より大きな監視資本主義のシステムと連動している。軍、政府部門、巨大IT企業が深く関与する構造の全体が戦争に動員される。2022年12月に改訂された安保防衛3文書で、「軍事と非軍事、有事と平時の境界があいまい化されたハイブリッド戦争の時代だ」と指摘されている意味は、表には出ていないものの、今のイスラエルの軍事行動にも、はっきりみられている。
  このわかりにくい領域が果している戦争への加担を見逃さずに、サイバーの領域を明確に視野に入れた反戦運動の構築が必須の課題だ。

注…筆者ブログ「(+972)破壊を引き起こす口実「大量殺戮工場」・イスラエルの計算されたガザ空爆の内幕」で検索。
http://www.labornetjp.org/news/2023/1701578458633staff01

(人民新聞 23年1月5日新年号掲載)

【お願い】人民新聞は広告に頼らず新聞を運営しています。ですから、みなさまからのサポートが欠かせません。よりよい紙面づくりのために、100円からご協力お願いします。