見出し画像

民主主義破壊💥の🇮🇱軍事超ハイテク👹③-01恐怖のAI[AI自動殺害リスト💀①”ラベンダー”]

民主主義破壊💥の🇮🇱軍事超ハイテク👹③-01恐怖のAI[AI自動殺害リスト💀①”ラベンダー”]

鬼畜👹イスラエル軍🇮🇱の残虐な蛮行や
非道な大量虐殺💀の背景にある
「超越的なテクノロジー」について見ていきます。
また、圧倒的に優位な兵器を手に入れて
”非対称戦”で平気で虐殺💀を行うナチス化🇩🇪した
腐敗シオニストたち🇮🇱の心理などにも少し触れます。


ガザ🇵🇸のジェノサイド💀の背後には、
イスラエル軍🇮🇱が開発した様々な軍事AIが関与している。
まるで、ターミネーターの軍事AI「スカイネット」のように、
次々にほぼ自動でパレスチナ人🇵🇸を次々と”戦争ゲーム”のように殺害💀して
虐殺していけるシステムができ上がっている。
その残虐な殺戮システムを5本の記事から見ていきます。

ターミネーターの軍事AI「スカイネット」

ターミネーターシリーズに登場する架空の軍事AIコンピュータのことである。
軍用ネットワークを接続する基幹コンピュータであるスカイネットは、
あるとき“自我”に目覚める。「戦争を繰り返す愚かな人間を排除しよう」とし、
これに気づいた人間がスカイネットを停止しようと試みるも、
スカイネットはそれを“攻撃”と受け止め、人間を全て敵とみなし、
1997年8月29日の「審判の日」に、
核ミサイルを発射して世界は一度終焉を迎える――、
その後、レジスタンスで「人間vs機械」の戦争が始まるというストーリーだ。

ターミネーターより
ターミネーターより


【調査報道 第1回】イスラエル軍の「殺害リスト💀」は人工知能が生成したものだった

すべてを変えた「人工知能による自動化」
2024.5.29
+972マガジン(イスラエル・パレスチナ)Text by Yuval Abraham
翻訳:永盛鷹司

023年12月、イスラエル軍の空爆を受けるガザ地区のラファ市街
Photo: Abed Rahim Khatib / picture alliance / Getty Images

2023年10月7日に開始したイスラエル🇮🇱によるパレスチナ・ガザ地区🇵🇸への空爆は、前代未聞の規模の民間人の巻き添え被害🇵🇸が発生している。
その背景には、最新鋭のAIの利用という、これまでの戦争とは
完全に異なるメソッドを今回イスラエル
🇮🇱が採用したことにあった。

イスラエル・パレスチナ合同独立系メディア「+972マガジン
🇮🇱🇵🇸
イスラエルの独立系メディア「ローカル・コール🇮🇱が、
イスラエルの軍関係者の証言をもとに、AIが戦争の形をどのように変えたか?
を検証する。(この記事は第1回/全5回)

AIが指揮したイスラエルのガザ爆撃

2021年、『人間とマシンのチーム:私たちの世界に革命をもたらす人間と人工知能のシナジーをいかに生み出すか』(未邦訳)と題する英語の本が刊行された。
著者はY・S准将というペンネームだが、イスラエルのエリートの諜報機関、
8200部隊を率いる人物であることが確認されている。

著書で彼は、戦火のなかで軍事攻撃の「標的」を何千という規模でマークするため、大量のデータをすばやく処理する特別なマシンの開発を提唱した。そのようなテクノロジーがあれば、「新たな標的の割り出しと、それを承認する意思決定の両方における人間のボトルネック」を解消できるだろうと、彼は書いている。

【調査報道 第1回】イスラエル軍の「殺害リスト💀」は人工知能が生成したものだった

「ラベンダー」と言うAI殺戮兵器の存在

そのようなマシンは、実際に存在すると判明している
イスラエル🇮🇱とパレスチナ🇵🇸合同の独立系メディア「+972マガジン」と
イスラエル🇮🇱の独立系ニュースメデイア「ローカル・コール」
の調査によって、イスラエル軍🇮🇱が「ラベンダー🌸」という
人工知能をベースにしたプログラムを開発したことがわかった。

【調査報道 第1回】イスラエル軍の「殺害リスト💀」は人工知能が生成したものだった

「ラベンダー🌸」が判定する殺戮対象💀

現在ガザ地区でおこなわれている戦争の間に軍に所属し、殺害対象を設定するためのAIの利用に直接関わったイスラエルの諜報機関の職員6人の証言によると、
ラベンダー🌸は、特にこの戦争の初期にあった前例のない規模の空爆において、重要な役割を果たしたという。軍事作戦におけるAIの影響力は、機械の出力結果が「まるで人間の決定のように」扱われるくらい大きかった。

情報筋は、戦争の最初の数週間、🇮🇱軍はほぼ完全にラベンダー🌸に頼りきりだったと証言した。そしてラベンダー🌸は、3万7000人のパレスチナ人を戦闘員の疑いがあると判定し、その人たちの家を含めて空爆の候補とした

戦争の初期、軍は将校に、ラベンダー🌸の殺害リスト💀をそのまま受け入れてよいと一様に認めておりマシンの判定の理由や、判定に使われた生のデータをしっかりとチェックするようには求めなかった。

さらに、イスラエル軍は組織的に、これらの標的が軍事活動をしているときよりも、自宅🏠にいるときを狙った。通常は、家族全員がその場にいる夜間だ。

その結果、特に戦争初期に、AIのプログラムの決定により、大半は戦闘に関与していない女性や子供である何千人というパレスチナの民間人🇵🇸が、イスラエルの空爆で殺害されたのだ。

以下の記事では、イスラエル軍の高度に自動化された標的生成が、ガザ戦争の初期にどのようにおこなわれたかを順番に追っていく。

【調査報道 第1回】イスラエル軍の「殺害リスト💀」は人工知能が生成したものだった

自動化すると止まらない

イスラエル軍内で「人間の標的」という言葉は、過去には上級の戦闘員のことを指した。それは軍の国際法部門によると、私邸🏠にいるときに民間人が周囲にいても殺害してよいほどの”重要人物”とされる。諜報機関職員🕵️‍♂️の証言によると、イスラエルの過去の戦争では、国際法を遵守するために、そのような人間の標的はとても慎重に設定され、家ごと爆撃されるのは上級の司令官クラスだけだったという。これは、殺害方法が「特に残忍👹」で、標的と一緒に家族全員を殺してしまうことも多かったからだ。

ところが、ハマスがイスラエル南部に激しい攻撃をしかけ、約1200人を殺害、240人を誘拐した2023年10月7日以降、イスラエル軍はまったく違うアプローチに転じた。「鉄の剣作戦」のもと、イスラエル軍はハマスの軍事部門のすべての人員を、階級や重要度に関係なく標的に設定した。

これがすべてを変えることになる。

【調査報道 第1回】イスラエル軍の「殺害リスト💀」は人工知能が生成したものだった

「有罪確定」の手続きなく次々に効率良く殺戮💀

この新たな手法は、イスラエルの諜報機関🕵️‍♂️に技術的な問題をもたらした。
以前の戦争では、人間の標的1人の殺害を承認するために、将官は複雑で時間のかかる「有罪確定」の手続きを踏まなければならなかった。その人物が本当にハマスの軍事部門の上級職なのか、証拠を突き合わせ、住居を割り出し、人脈を調べ、最終的にいつ彼が家にいるかをリアルタイムで特定する。
標的リストに十数人の上級職しか載っていなかったときには、諜報機関の職員🕵️‍♂️も有罪確定と居所特定の作業を個別におこなうことができた

しかし、そのリスト💀が拡大し、何万人という下級の戦闘員が追加されると、イスラエル軍は自動化されたソフトウェアと人工知能🌸に頼らざるをえなくなった。その結果、パレスチナ人を戦闘員と認め有罪を確認する人間の役割は軽くなり、AI🌸が作業の大半を担うようになった。

取材に応じた4人の証言者によると、今回の戦争で標的を設定するのに開発されたラベンダー🌸は、3万7000人のパレスチナ人を「ハマスの戦闘員」の疑いがあるとマークし、殺害対象とした。その多くは下級の戦闘員だった。
(イスラエル軍のスポークスマンは、取材に対する声明で、そのようなリストの存在を否定している)

「私たちは下級の戦闘員が”誰かを知らない”イスラエルは戦争前から彼らを”定期的に追跡していたわけではない”からだ」と証言者Bは述べ、現在の戦争のためにこの特別な標的設定マシンが開発された理由を明らかにした。

🇮🇱は、下級の戦闘員とされた人々に対して、自動的に攻撃できるようにしたかった。それは究極の理想とされた。そしてひとたび自動化されると、標的の生成には手がつけられなくなった」

【調査報道 第1回】イスラエル軍の「殺害リスト💀」は人工知能が生成したものだった

消えた「手動でのチェック」

証言者たちは、以前は補助ツールにすぎなかったラベンダー🌸の殺害リスト💀をそのまま受け入れることが許可されたのは、戦争が始まって2週間が経ったときだったと述べる。それまでは諜報機関の職員🕵️‍♂️が、AIシステムに設定された数百人の標的をランダムに取り出し、正確かどうかを「手動で」チェックしていた。
そのサンプル分析で、ラベンダー🌸が90%の正答率で標的がハマスに属しているかどうかを言い当てられるとわかると、軍はシステムの全面的な使用を認めた。

そのときから、ラベンダー🌸がある人をハマスの戦闘員と認識すると、それは命令と同等に扱われるべきだということになり、マシンがなぜそのような判断を下したのかや、判断基準となった元データの独立したチェックはおこなわれなくなった。

「朝5時に空軍が出撃して、私たちがマークした家のすべてを爆撃する。私たちは何千人もまとめてマークしていて、ひとりひとりについて精査しない。すべてを自動化されたシステムに入力し、その何千人のうちの1人が自宅にいるとわかると、彼は即座に攻撃対象になる。🏠ごと空爆するのだ」

「重要度が低い現場の戦闘員を殺害するために、家を空爆するように指示されたのは驚きだった」と、下級の戦闘員とされる人のマークにAIを用いたと証言した人は言う。「このような標的を『くず標的』と呼んでいた。それでも、『抑止』のためだけに爆撃する標的、つまりただ破壊のためだけに高層ビルを爆撃するよりは、特定の標的がいる分、倫理的だと思っていた

戦争初期のこの規制緩和がもたらした致命的な結果は唖然とするものだった。
ガザのパレスチナ保健省が発表したデータ(イスラエル軍はこれを信用できないと表向きには言っているが、独自に死者数を把握できていないため、戦争開始以来、このデータをほとんど唯一の情報源として参照してきたようだ)によれば、
2023年11月24日に1週間の停戦が合意されるまでの最初の6週間で、イスラエル軍は約1万5000人のパレスチナ人を殺害した。これは2024年4月時点の死者の合計の半分にのぼる。

【調査報道 第1回】イスラエル軍の「殺害リスト💀」は人工知能が生成したものだった

何万もの標的を一気に「生成」

ラベンダー🌸のソフトウェアは、
”集団監視システム”を通して収集されたガザ地区の住民230万人の情報を分析
②各人がハマスやPIJの軍事部門で活動している可能性を
 1から100までの数字で表して評価
③ランク付けをする
ハマスの工作員🕵️‍♂️の人物の特徴を学習するために、
その情報を学習用データとして与えられ、
住民全員のなかから同じ特徴を探し出すという。
その特徴がいくつか重なればその人には高い数値がつけられ、
自動的に殺害の標的候補💀となる。

ラベンダー🌸のソフトウェアは、”集団監視システム”を通して収集されたガザ地区の住民230万人のほとんどに関する情報を分析し、各人がハマスやPIJ(イスラム聖戦)の軍事部門で活動している可能性を評価し、ランク付けをする。証言者たちによると、マシンはガザにいるほぼ全員に対して、戦闘員である可能性を1から100までの数字で表していた。

ラベンダー🌸はハマスやPIJの工作員として知られる人物の特徴を学習するために、その情報を学習用データとして与えられ、住民全員のなかから同じ特徴を探し出すという。その特徴がいくつか重なればその人には高い数値がつけられ、自動的に殺害の標的候補となる。

この記事の冒頭で挙げた本『人間とマシンのチーム』で8200部隊の司令官は、
ラベンダー🌸の名前を出さずにそのようなシステムを推進している(この司令官自身も名前を明かしていないが、8200部隊の5人の証言者が、この本の著者は司令官であると認めた。それは「ハアレツ」紙によっても報道されている)

【調査報道 第1回】イスラエル軍の「殺害リスト💀」は人工知能が生成したものだった

人間のスタッフを軍事作戦中の軍の能力を制限する「ボトルネック」と呼ぶ

良心があって、殺害を戸惑う人間のスタッフを軍事作戦中の軍の能力を制限する「ボトルネック」と呼ぶ。
【ハマス戦闘員の特徴例】
戦闘員として知られる人物のWhatsAppグループに入っている、
数ヵ月ごとに携帯電話を変える、
住む場所を頻繁に変える

人間のスタッフを軍事作戦中の軍の能力を制限する「ボトルネック」と呼び、司令官は以下のように嘆いている。「私たち人間はとても多くの情報を処理できない。戦争中は、どれだけ多くの人に標的の生成の任務を与えようと関係ない。1日に必要な標的には到底及ばないのだから」

この問題を解決するのが、人工知能だと司令官は言う。その本は、AIと機械学習アルゴリズムに基づくラベンダー🌸と同様の「標的生成マシン🌸」設計の原理を簡単に説明している。そこでは、ひとりひとりの人間のレーティングの数値を増やすための「何万もの」特徴の例もいくつか挙げられている。たとえば、戦闘員として知られる人物のWhatsApp(メッセージアプリ)グループに入っている、数ヵ月ごとに携帯電話を変える、住む場所を頻繁に変えるなどだ。

【調査報道 第1回】イスラエル軍の「殺害リスト💀」は人工知能が生成したものだった

ネット上やスマホの個人情報が殺戮データ💀に

恐らく、ペガサスなどでパレスチナ人🇵🇸全員のスマホをハッキング。
「視覚的な情報、携帯電話の通信、ソーシャルメディアの使用、
戦場での行動、電話の相手、写真」を収集している。

「情報の量と種類は多いほどよい」と司令官は書く。「視覚的な情報、携帯電話の通信、ソーシャルメディアの使用、戦場での行動、電話の相手、写真」などだ。最初は人間がこれらの特徴を選び出してやらねばならないが、マシンは次第に自ら特徴を発見できるようになる。これによって、実際に攻撃するか否かの決定は人間が下すものの、軍は「何万もの標的」を生成することができるという。

【調査報道 第1回】イスラエル軍の「殺害リスト💀」は人工知能が生成したものだった

「危険人物」を検出するマシン

イスラエル軍の上層部がラベンダー🌸のような人間の標的を作り出すマシンの存在を示唆したのは、例の本が唯一のケースではない。
+972マガジンとローカル・コールは、8200部隊の機密データサイエンス・AIセンターの司令官とされる人物「ヨアブ大佐」が2023年にテルアビブ大学のAI週間の企画でおこなった私的な講義の録画映像を入手した。この講義については、イスラエルのほかのメディアにも当時報道されている。

講義でその司令官は、イスラエル軍によって使用される新型で高度な標的生成マシンについて語った。それは学習素材とされた既存の戦闘員のリストとの類似性に基づいて「危険人物」を検出するマシンだ。
このマシン🌸が初めて使用された2021年5月のガザ地区での軍事作戦について言及しながら、「このシステムを使ってようやく、私たちはハマスのミサイル部隊の司令官たちを特定できたのです」とヨアブ大佐は講義で述べた。

講義で使用されたスライドには、マシンの仕組みを表した図もあった。
マシンは既存のハマスの戦闘員に関するデータを学習素材として与えられ、その特徴を学習し、ほかのパレスチナ人がそれにどれだけ似ているかを格付けするのだ。

「私たちは上がってきた結果をランク付けし、攻撃するか否かの基準を定めます」とヨアブ大佐は言い、こう強調した。「最終的に、決定するのは血の通った人間です。国防の分野では、倫理性を保つために、私たちはこのことを重視しています。これらのツールは情報将校が自らのキャパシティの壁を打ち破るのを助けるためのものです」

しかし、実際の運用においては、そうはならなかった。ここ数ヵ月の間にラベンダー🌸を使用した情報筋の証言によれば、大量の標的の生成と殺傷力の影に、人間の主体性と正確さは隠れてしまった。(続く)

【調査報道 第1回】イスラエル軍の「殺害リスト💀」は人工知能が生成したものだった

AI🌸の力を借りてドライにおこなわれる標的の生成には、エラーも多く見られた。第2回では、イスラエル軍がそのエラーを認識していながら問題視していなかった実態が語られる。

This article was produced by and originally published in +972 Magazine and Local Call. Original article


【調査報道 第2回】AIが生成した殺害リスト💀の“10%の誤差“にイスラエル軍は目をつぶった

人間の役割は「承認」のみだった
2024.5.30
+972マガジン(イスラエル・パレスチナ)Text by Yuval Abraham
翻訳:永盛鷹司

ガザ地区上空を飛行する無人航空機
Photo: Abed Rahim Khatib / Anadolu / Getty Images

2023年10月から始まったガザ地区への攻撃においてイスラエル軍は、殺害対象となる大量の「標的」をAI🌸を使ってマーク💀した。しかし、AIの精度は確実でなく、エラーがある。それを認識していながらも対策しなかったことによって、ハマスとは無関係の多くのパレスチナ人が殺害されることになった。
(この記事は第2回/全5回)


「エラーなし」の原則はない

ラベンダー🌸を使用した上級将校である証言者Bは、取材に対し、現在の戦争で諜報機関の職員たち🕵️‍♂️はAIシステムの評価を独立して精査することを求められていないと繰り返した。それは時間を節約し、支障なく人間の標的を量産できるようにするためだ。

「すべてが統計的に、とてもドライに整然とおこなわれた」とBは言う。この監視の欠落は、内部調査でラベンダー🌸の正確性が90%にとどまるとわかっていたのに承認されたという。言い換えるなら、殺害対象とされた人間の標的の10%はハマスの軍事部門のメンバーではまったくないと、事前に知られていたのだ。

【調査報道 第2回】AIが生成した殺害リスト💀の“10%の誤差“にイスラエル軍は目をつぶった

ラベンダーはハマスやPIJの戦闘員と似ている通信パターンを持つ人物を誤って戦闘員とみなす

ラベンダー🌸はハマスやPIJの戦闘員と似ている通信パターンを持つ人物を
誤って戦闘員とみなすことがよくあった
(例)名前やニックネームが戦闘員とたまたま似ているだけの人など

たとえば、ラベンダー🌸はハマスやPIJの戦闘員と似ている通信パターンを持つ人物を誤って戦闘員とみなすことがよくあったという。そこには、警察、民間防衛組織のメンバー、戦闘員の親戚、名前やニックネームが戦闘員とたまたま似ているだけの人、かつてハマスの戦闘員が使用していた携帯電話の端末を使用している一般のガザ地区住民などが含まれていた

【調査報道 第2回】AIが生成した殺害リスト💀の“10%の誤差“にイスラエル軍は目をつぶった

間違ってても統計的には問題ない。だからやってしまえ!💀💀

ある証言者は、「AIマシンがハマスの関係者と判定する場合、その人は一体ハマスにどれだけ近いのか?実際のところは疑わしい」と、ラベンダー🌸の不正確さを批判して言う。

「境界が曖昧なんだ。
ハマスから給料をもらっているわけではないが、
いろいろと手助けをしている人はどうなのか?
過去にハマスにいたが、いまは手を切っている人はどうなのか?
マシンが疑わしいと判断するようなこれらの特徴は、
それぞれ不正確にしかとらえられない」


同様の問題は、標的生成マシンが、殺害対象としてマークした人物の携帯電話を評価する際にも現れる。「戦争中、パレスチナ人はしょっちゅう携帯電話を変える。家族との連絡がとれなくなって電話を友達や妻に渡すこともあるし、紛失することもある。どの電話番号が誰のものかを判断するために、自動的なシステムに100%は頼れない」

証言者らによると、最低限の人による監視だけでは、このような欠陥を発見できないことは、軍も認識していたという。「『エラーなし』という方針はなかった。ミスは誤差の範囲として処理された」とラベンダー🌸を使用した証言者は言う。

「その範囲と規模がとても大きいため、たとえマシンが正しいかどうか確証が持てなくとも、統計的には問題ない。だからやってしまえ、という運用だった」

「マシン🌸はその能力を示した」と証言者Bは言う。「統計的なアプローチには、一定の規範や基準を設定してくれる力がある。この作戦では、常識では考えられないほどの量の爆撃がおこなわれた。私が覚えている限り、前例のない規模だ。そして私は、2日前に友人を失った兵士よりも、統計的なメカニズムのほうがはるかに信用できると思う。私を含め、イスラエル軍のみんなが10月7日に同胞を失った。マシンはそれに冷静に対処した。それで私たちは楽になったのだ

【調査報道 第2回】AIが生成した殺害リスト💀の“10%の誤差“にイスラエル軍は目をつぶった

「攻撃ありき」の標的生成

別の諜報機関関係者🕵️‍♂️は、ラベンダー🌸が作成したパレスチナの容疑者の殺害リスト💀は信頼できるものだと擁護し、仮に標的がハマスの上級の指揮官だけであれば、情報の検証に情報将校の時間を投資する価値はあるが、そうではない場合はその限りではないと主張した。

下級の戦闘員には、人的資源と時間を投資したくない。戦争中は、すべての標的の有罪を確認している暇はない。そのため、人工知能を使用する際に起こるわずかな誤差、巻き添え被害や民間人の死亡のリスク、誤って攻撃がおこなわれるリスクと折り合いをつけるしかないのだ」

証言者Bは、この自動化の理由は、より多くの殺害対象を生成することが継続的に推奨されているからだと明かした。「攻撃を許可するのに充分な格付けをされた標的がいない日には、私たちは攻撃を可能にする基準を下げて実行した『もっと標的を指定しろ』というプレッシャーを受け、怒鳴られることもあった私たちはとてもすばやく標的を始末してしまったからだ

Bは、ラベンダーに設定した基準を引き下げると、より多くの人が攻撃の対象になると説明した。「ピーク時には、システムは3万7000もの人々を人間の標的候補と設定した」とBは言う。

「ハマスの戦闘員とされる範囲がもっと広い時期もあり、マシンはあらゆる種類の民間防衛組織の人や警察官など、間違って爆弾を落としたら本来なら恥になるような人たちも標的として指定するようになった。その人たちはハマスの統治を助けているとはいえ、イスラエルの兵士を危険にさらしているわけではない

ラベンダーが訓練されていたとき、軍は『ハマスの工作員』という言葉を安易に使い、訓練のデータセットに民間防衛組織の人も含まれていたので不安に思った」と彼は証言する。

【調査報道 第2回】AIが生成した殺害リスト💀の“10%の誤差“にイスラエル軍は目をつぶった

1人20秒で「承認」

ラベンダーによってマークされた「下級の」戦闘員と疑われる人物の家を爆撃する前に人間がおこなうのは、AIが選択した標的が女性ではなく男性であることを確認するという、たった1つのチェックだけだったという。
ハマスやPIJの軍事部門には女性がいないからだ。

人間が標的を確認するのはわずか数秒間だ」とBは言う。
ラベンダーがおおよそ「正しく」作動しているとみなされてから、
この運用方法が定着した。

【調査報道 第2回】AIが生成した殺害リスト💀の“10%の誤差“にイスラエル軍は目をつぶった




このように個人情報を紐づけてしまう危険性については
垣間見えてきたと思われる。マイナンバーカードと
保険証の紐付けなどは、簡単に病歴や弱みを知られることになり、
いかに危険性が高まるか?見えてきたと思われる。



民主主義破壊💥の🇮🇱軍事超ハイテク👹シリーズまとめ

このシリーズのINDEXです。



伊丹万作「騙されることの責任」

もちろん、「騙す方が100%悪い」のは紛れもない事実である。
その上で更に「騙されることの責任」を考えよう。

伊丹万作「騙されることの責任」

もう一つ別の見方から考えると、いくら騙す者がいても誰1人騙される者がなかったとしたら今度のような戦争は成り立たなかったに違いないのである。
つまり、騙す者だけでは戦争は起らない。騙す者と騙される者とがそろわなければ戦争は起らない一度騙されたら、二度と騙されまいとする真剣な自己反省と努力がなければ人間が進歩するわけはない騙されたとさえいえば、一切の責任から解放され、無条件で正義派になれるように勘違いしている人は、もう一度よく顔を洗い直さなければならぬ。
伊丹万作「戦争責任者の問題」より


この記事が気に入ったらサポートをしてみませんか?