見出し画像

政治講座ⅴ1780「自律型致死兵器(LAWS」

 人類は自ら滅びる道を歩んでいる。生物は自分を守る・種を守るための「毒」を持つ。しかし、人類は必要以上の破壊兵器を開発して、幾多の同類を殺戮してきた。そのうえ、環境破壊による他の生物までも絶滅危惧種にしてきた。人類も絶滅危惧種になるやもしれない。人間を殺戮するためのアルゴリズムをプログラムしたら、道徳心のないAIはそのアルゴリズムにより人間を無差別に躊躇なく殺戮を繰り返すのである。では人間はそのような無差別殺戮をしないかというと、それは広島・長崎への原子爆弾で、非戦闘員の子供・女性数十万人を瞬時に灰にしてしまった。これを決断・命令・実行した者は何の罪に問われたのであろうか。東京裁判でこの国際法違反の戦闘行為は米国は無視したのである。勝者に都合の良い裁判結果を出したの過ぎない。翻って誤って殺したAIによる殺戮は誰が責任を負うのであろうか。AIプログラマーかAI操縦者か、AI軍部司令官か。過去の歴史(東京裁判)を俯瞰すると勝者に都合の良い裁判結果が求められることになる。その勝者の集まりで作り上げられた国際連合は機能する訳がない。案の定、常任理事国の拒否権乱発で組織として機能不全を起こしている。翻って今後起こる、起こっているAIを軍事利用の開発競争、無人戦闘機の開発競争の結果は核兵器の開発競争と同じ轍を踏むことになるであろう。今回はそのような報道記事を紹介する。

     皇紀2684年5月16日
     さいたま市桜区
     政治研究者 田村 司

AIで自律的に動く殺人ロボット(LAWS)の開発現状と規制の動向

開発急ぐ中国に米国も本腰、日本はどう対応すべきか

2024.1.29(月)横山 恭三

  • どんなに優秀な戦闘機でも有人では無人機に勝てなくなっている(写真は米空軍のF-15E戦闘機、2023年2月18日撮影、米空軍のサイトより)

 2023年12月22日、国連総会は、自律型致死兵器システム(Lethal Autonomous Weapon Systems:LAWS=ローズ)への対応が急務だとする決議案を採択した。

 LAWSは、人間の関与なしに自律的に攻撃目標を設定することができ、致死性を有する完全自律型兵器を指すと言われているものの、国際的な定義は定まっていない。

 LAWSに関しては様々な懸念がある。

①そもそもロボットに人命を奪う判断をさせていいのか、という倫理的な問題。

②事故等の場合の責任の所在が不明である。

自軍の兵士の損失が減ることで「戦争へのハードル」が低くなる。

④機械である以上、故障による誤作動も起こり得る

⑤さらに、人工知能(AI)が人間に「反乱」を起こす事態を警告する科学者もいる。

 そして、現在、LAWSの開発や所有、使用を規制または禁止する国際的なルールがない。

 国連総会での決議案はオーストリアが提出し、採決では倫理上の問題を懸念する日米など先進7か国(G7)のほか、紛争拡大を懸念するアフリカや中南米、東南アジアなどの多くの発展途上国を含む152か国が賛成した。

 AIの軍事利用に積極的で規制に反対のロシア、インド、ベラルーシ、マリの4か国が反対し、AIの軍事利用に積極的で規制に慎重な中国やイスラエル、イラン、トルコ、シリアなど11か国が棄権した。

 国連総会でのLAWS関連決議は初めてである。

 決議は、倫理的問題や人間の役割について各国の見解を取りまとめ、2024年9月に始まる次期会期に報告書として提出するようアントニオ・グテーレス国連事務総長に要請した。

 さて、2019年8月21日、特定通常兵器使用禁止制限条約(Convention on Certain Conventional Weapons:CCW)枠内のLAWSに関する政府専門家会合(Group of Governmental Experts:GGE)において、LAWSの規制の指針を盛り込んだ「報告書」が採択された。同報告書には、

①すべての兵器システムには国際人道法が適用されること。

②兵器の使用には人間が責任を負うこと。

ハッキングのリスクやテロ集団の手にわたるリスクを考慮することなど11項目が盛り込まれた。

 2019年11月、CCW締約国は、11項目から成るLAWSの規制に関する指針について合意した。11項目の概要は後述する。

 このような規制に関する初めての指針がまとまったことは、重要な成果であったが、LAWS規制の議論のきっかけをつくった国際人権団体などからは、失望の声が上がった。

 それは、合意された指針には法的拘束力がない、いわば「努力目標」の域を出ず、ルールを自国の都合のよいように解釈する国が現れるのではとの懸念があったからである。

 その後、LAWSの開発・配備を規制しようとするいわゆる「LAWS議論」は、規制の必要性では一致しながら、各国の思惑や事情もあり、具体的なルールを決められずなかなか進展しなかった。

 その間にAIを搭載した完全自律型兵器の開発および使用は拡大していった。

 そのような中、2023年2月15日、米国が「AIと自律性の責任ある軍事利用に関する政治宣言」に係るイニシアチブを公表した。

 筆者は、米国の狙いは、LAWS規制が進まない中で、AIの軍事利用の国際基準作成について米国が指導権を握ることであると見ている。

 以下、初めにLAWSの定義について述べ、次にCCWの枠組におけるLAWS議論の変遷について述べ、次にAI関連兵器を巡る米国の動向について述べ、最後に我が国のLAWS対策について述べる。

殺傷能力のある「自律型兵器」の普及は止まらない? 加速する技術の進化と、合意できなかった規制

殺傷能力のあるドローンなどの自律型致死兵器システム(LAWS)が戦場で使われる一方で、国連の特定通常兵器使用禁止制限条約に参加する120カ国が、その開発や使用の制限について合意できなかった。自律型の兵器が進化するなか、こうした制限への同意をいかに得ることができるのか。
この2021年は、これまで「将来的な懸念」とされてきた自律型致死兵器システム(LAWS)が、ついに戦場における「現実」になる様子を世界が目にした年として記憶されるかもしれない。また、政策立案者がこの問題への対策について合意に至ることができなかった年でもある。

国連の特定通常兵器使用禁止制限条約に参加する120カ国は12月17日(米国時間)、自律型致死兵器の開発や使用の制限について合意できなかった。代わりに議論を継続し、対策を「強化する」と誓うにとどまっている。

ジュネーヴに拠点を置く国際赤十字社で科学および政策のシニアアドヴァイザーを務めるニール・デイヴィソンは、「非常に残念です。そして機を逸してしまったことは間違いありません」と語る。この合意を得られなかった今回の会議の9カ月ほど前には、リビアの内戦で自律型致死兵器が初めて武力紛争に使用されたと国連が報告していた。


自律型致死兵器の禁止に「反対」する国々の事情

近年、より多くの兵器システムが自律的な要素を組み込んでいる。例えばミサイルのなかには、具体的な指示がなくても特定のエリア内を飛行できるものもある。

ただし一般に、攻撃を開始する際には人間が必要になる。そしてほとんどの政府は、少なくとも現時点では、こうした技術を使う際には人間を「介在」させ続ける予定だと説明している。

だが、人工知能AI)のアルゴリズム、センサー、電子機器の進歩によって、より高度な自律型システムの構築が容易になった。このため殺傷力を行使するタイミングを自ら判断できる機械が出現する可能性が出てきている。

ブラジル、南アフリカ、ニュージーランド、スイスをはじめとして、自律型致死兵器化学兵器生物兵器地雷のように条約で制限すべきと主張する国が増えている。ドイツとフランスは、人間を標的にする可能性のあるものを含む一部の自律型兵器の制限を支持している。中国は極めて狭い範囲の制限を支持している。

米国、ロシア、インド、英国、オーストラリアなどのほかの国々は、自律型致死兵器の禁止に反対している戦略的に不利な立場に陥らないようするためには、そうした技術の開発に取り組む必要があるというのだ。

加速する自律型技術の進歩

殺人ロボットは昔から人々の想像力をかき立てており、SFの人気キャラクターやディストピア的な未来像の着想の源にもなってきた。また近年はAI分野に革新がもたらされ、特定の領域では人間を上回る思考力をもつ新しいタイプのコンピュータープログラムが誕生している。こうしたなか、より賢くなった機械がもたらす実存的脅威について、テック業界の大物たちが警鐘を鳴らすようになっている。

この問題は今年に入り、ますます緊急性を帯びてきた。2020年にリビアの内戦でトルコ製のドローン「Kargu-2」が使用されたと国連が報告したのだ。国民合意政府派の勢力が、リビア国民軍を率いるハリファ・ハフタル将軍を支持する部隊に対して、人間を標的にして攻撃する自律型のドローンを発射したという。

兵站部隊および退却していたハフタル将軍側部隊は…無人戦闘機に追跡され、遠隔操作で攻撃された」と報告書は説明している。このシステムは「オペレーターと兵器間のデータ接続を必要とせずに目標を攻撃するようプログラミングされており、実質的に真の『ファイア・フォーゲット・アンド・ファインド(撃ち放しで標的を発見する)』能力を備えたものであった」という。

このニュースは自律型技術の進歩の速さを示している。「技術は軍事政策的な議論よりも、はるかに早く発展しています」と、マサチューセッツ工科大学(MIT)教授のマックス・テグマークは言う。彼は人類が直面する存亡の危機への対処に尽力している団体「Future of Life Institute」の共同創設者でもある。「このまま何もしなければ、わたしたちは最悪の結果に向かって進み続けるでしょう」

AI兵器の普及を懸念する技術者が増えているが、テグマークもそのひとりだ。Future of Life Instituteは、いわゆる「殺人ロボット」がもたらすリスクをもっと意識してもらおうと、短編映画を2本制作した。そのうち11月に公開された最新作は、自律型ドローンが標的型暗殺を実行する可能性に焦点を当てている。

「殺人ロボットの普及を批判する流れが強まっています」と、テグマークは言う。「軍用AIをすべて禁止しろと言っているわけではありません。『もし人間だったら殺せ』という指令を受けたものだけです。つまり、人間を標的にした兵器の禁止なのです」

禁止や規制の際の課題

自律型兵器の使用を禁止したり規制したりする際の課題のひとつは、実際に使われたかどうか知ることが難しい点だろう。Kargu-2を開発したトルコ企業のSTMは、人間が制御しなくても人間を標的にして発射する機能を同機が備えているとは認めていない。

同社のウェブサイトでは現在、殺傷力の使用については人間のオペレーターが判断するとしている。「軍事作戦には人間を介在させるという原則に従い、精密照準爆撃ミッションはオペレーターによって完全に実行されます」と書かれているのだ。

ところが、ウェブサイトの6月時点での記述のキャッシュを確認すると、そのような説明が含まれていない。STMにコメントを求めたが、返答はなかった。

「わたしたちは“グレーゾーン”へと突入しようとしています。ドローンが攻撃に使われたとき、どれだけ自律的だったか明確にはわからないのです」と、無党派シンクタンク「新アメリカ安全保障センター」のヴァイスプレジデント兼研究部門ディレクターで、『無人の兵団──AI、ロボット、自律型兵器と未来の戦争』の著者であるポール・シャーレは言う。「これは説明責任という点で、非常に難しい問題を引き起こします」

「AI兵器推進派」の主張

イスラエルがイランの著名な核科学者を暗殺した際にAIを活用した兵器を使ったと9月に報道された際も、どれだけ自律的だったかは曖昧だった。『ニューヨーク・タイムズ』の調査によると、遠隔操作された機関銃が一種の顔認識と自律機能を使用していたという。だが、その機関銃が人間の承認がなくても動作できたかどうかは、はっきりとしていない。

攻撃に使われた兵器がどれだけ自律的だったかは、「多くの企業が自社の技術力を誇示する際に『自律性』という言葉を使うことから、よりいっそうわかりにくくなっている」と、シャーレは言う。近年確認されたほかのドローン攻撃は、背景にある技術が急速に進歩していることをうかがわせる。

米国では米国防総省の国防高等研究計画局(DARPA)が、大量のドローンと地上車両を使った実験を進めている。これらのドローンと車両は、人間のオペレーターにとっては監視・制御が困難なかたちで連携することが可能だ。

また米空軍も、AIが戦闘機のパイロットを支援したり、パイロットに取って代わったりする方法を研究している。さらに、人間のパイロットとAIのパイロットとの間で何度も空中戦をさせている。

たとえ自律型兵器を制限する条約があったとしても、「民主的政権と独裁政権との間には、コンプライアンスの点で不均衡があります」と、シャーレは言う。ロシアや中国のような敵対国は、自律型兵器の開発を制限することに同意したとしても、民主主義国と同等の説明責任を果たさずに開発を続ける可能性があるのだ。

だからこそ、AI兵器を開発する必要があると主張する人々もいる。少なくとも、高速かつ複雑に作動できる自律型システムに対する防衛策として、同様のシステムの開発に取り組むべきであるというのだ。

国防総省のある幹部は4月、米陸軍士官学校で開かれた会議で、人間が迅速に対応できない状況においては指揮系統から人間を外すことを検討する必要があるかもしれないと語っている。

何らかの制限への同意は得られるか

敵対国に後れをとる可能性は、軍事計画を立てる者にとっては当然ながら重大な懸念事項となる。作家のエリオット・アッカーマンと米海軍大将のジェイムズ・スタヴリディスは『WIRED』US版で掲載した小説「2034: A Novel of the Next World War」(日本では『2034 米中戦争』として刊行)に関するインタヴューで、「米国に対する大規模なサイバー攻撃」が起きた場合を想像している。

彼らが想定しているのは、「敵が水面下でのサイバー攻撃(サイバーステルス)とAIを魔法の薬のように洗練させ、それをわたしたち(=米国)に対して行使する」ような状況だ。

これまでもAIの軍事利用が物議を醸してきたにもかかわらず、米国のテック企業は国防総省がさらにAI技術に磨きをかけることを支援し続けている。AIの戦略的可能性を検討する人工知能国家安全保障委員会は、AIに多額の投資をするよう勧告した。この委員会には、グーグルやマイクロソフト、アマゾン、オラクルの代表も参加している。

国連の議論にかかわった国際赤十字社のデイヴィソンは、技術が政策論争よりも速く進化していると指摘する。「各国政府には、新たなルールを採用するための具体的な行動に出ることが強く求められます」

たとえ国連の場でなくても、各国が何らかの制限に同意するのではないかという望みを、デイヴィソンはまだ捨てていない。

各国の行動を見ると、自律型兵器に対して抵抗感を抱いていることがうかがえると、デイヴィソンは言う。「かなり興味深いのは、人間を直接狙う自律型兵器を使用しているのではないかという疑いに対して、軍や政府、メーカーといった関係者が否定したがるということです」


究極のAI兵器「LAWS」、起動したら人類滅亡へまっしぐらか 殺人ロボットに法的・道徳的・倫理的な判断は期待できず

5/10(金) 11:02配信

殺人ロボットに法的・道徳的・倫理的な判断は期待できない=写真はイメージ(写真:Mykola Holyutyak/Shutterstock)

 究極のAI兵器が出現間近と言われています。AI(人工知能)が自ら攻撃対象を選び、攻撃するかどうかもAI自身が判断する兵器で、対象の選定から攻撃までのプロセスに人間の意志が関与することはありません。そんな「自律型致死兵器システム(LAWS)」をどう扱えばいいのでしょうか。国連では、規制に関する国際会議も始まっています。戦争と社会のありようを根底から変えかねない「LAWS」をやさしく解説します。
【図】自立型致死兵器システム(LAWS)に関する国連総会の決議案に反対、もしくは棄権した国はどこか?  (フロントラインプレス)
■ 人類を滅亡させる可能性  「人類を滅亡に至らせるような兵器も生まれている。(兵器にも利用可能な)AIの安全保障に関し、そのリスク軽減に向けた新たな国際機関の設置も検討すべきだ」  国連のグテレス事務総長が強い危機感を表明したのは、2023年7月のことでした。
“分単位”と言っても過言ではない速度でAIが高度化するなか、兵器分野への応用が進み、人類が兵器を制御できなくなる恐れに言及したのです。
 グテレス氏は加盟国への勧告を提言書の形でまとめ、AIを搭載した兵器の開発・使用の禁止や、国際社会の安全保障が脅かされないように新たな国際機関を開設することなどが可能かどうかを検討するよう呼びかけました。これを受けて、LAWS規制に関する協議が本格的に始まっています。
 LAWS(ローズ)という言葉にはなじみがなくても、「殺人ロボット」「AI兵器」といった言葉は多くの人が耳にしたことがあるでしょう。
 では、LAWSとはどのような意味でしょうか。

■ 人間の判断を介在させない攻撃が可能に
 LAWSはLethal Autonomous Weapons Systemsの略で、日本語では「自律型致死兵器システム」と呼ばれます。
「Lethal Weapon」(リーサル・ウェポン)という文字の通り、「死に至らせるための兵器」を指します。
 敵の認知や攻撃の判断など膨大な情報処理をAIが主体的に行うことで、兵器が「自律」的に相手を「致死」させるかどうかを判断するのです。したがって、LAWSは兵器単体ではなく、人間の判断を介在させない攻撃を可能にするシステム全体を指します
 完全なLAWSはまだ完成していないと言われていますが、実戦で使用されたのではないかとの疑いが浮上したことはあります。国連安全保障理事会に提出された軍事専門家らの報告書によると、リビアで内戦が続いていた2020年3月、リビア暫定政権側がトルコ企業の無人ドローンを使って敵対組織を攻撃したとされています。
 ドローンの使用はその時点でも珍しくありませんでした。しかし、このときのドローンは地上の操縦者とつながっておらず、敵の認知から追跡・攻撃までのすべてをドローン搭載のAIが判断した可能性があると報告されました。
 報告が事実だったとすれば、“空飛ぶ殺人ロボット”が4年前に登場していたことになります。作動後には簡単に制御できない恐れ  人工知能や情報通信技術は軍民両用で使用が可能なデュアル・ユースの典型です。日進月歩どころか、時間単位・分単位でAIの進化が続く現在、AI技術そのものにストップをかけることは現実的ではありません。
 ただ、仮にLAWSが誤作動を起こしたり、LAWSが「自律」的に人類への攻撃を開始したりしたとしても、プログラムが作動した後ではLAWSを簡単に制御できない恐れもあります。
 そのため、手遅れにならないうちにLAWSの開発や使用を規制すべきだとの声は早くから湧き上がっていました。国際社会で最初に懸念を表明したのは、英シェフィールド大学のロボット学者、ノエル・シャーキー氏だとされています。
 防衛研究所紀要の第19巻(2016年)に掲載された論文によると、シャーキー氏は2007年に英紙で「Robot wars are a reality」(ロボット戦争が現実に)と題する論考を発表し、手遅れにならないうちに国際的な規制を行うべきだと強く主張しました。

■ 「殺人ロボット、完成前に禁止を」
 これを機に各国の学者や研究者らが相次いでLAWSへの懸念を表明するようになります。2012年11月には国際的なNGO「ヒューマン・ライツ・ウォッチ」が「失われつつある人間性:殺人ロボットに反対する根拠」と題する報告書を公表し、同時に「殺人ロボット、完成前に禁止を」という声明も発表しました。
 そのなかで、ヒューマン・ライツ・ウォッチは「完全自律型兵器は一般市民の殺害に関して、合法・違法を判断する人間の能力を本質的に欠いている。加えて、この手の兵器がもたらす危害について人間の責任を問うのが困難であり、国際法違反行為を抑止する法の力を弱める危険がある」と強調しました。
 戦争や紛争は本来あってはならないものですが、国際社会はせめて戦闘にもルールを設けて惨禍を少しでも減らそうと努力してきました。捕虜や負傷兵、一般市民らは戦時下でも保護するよう規定したジュネーブ条約(1949年)はその代表例です。  ほかにも核兵器禁止条約や地雷禁止条約などがあります。実効性は必ずしも十分ではないにせよ、こうした国際的な取り決めが人類を破滅から救ってきた側面も否定できません。
 ところが、攻撃を自ら判断するLAWSには、こうした法的・道徳的・倫理的な判断が期待できないのです。
LAWS規制に反対・棄権した国は?
   国連のグテレス事務総長らの働きかけにより、LAWS規制の動きは本格化しています。昨年12月末には、国連総会で「LAWSが戦争で使用されれば、民間人の犠牲が深刻化する恐れがある」「LAWSは世界の安全保障に脅威を与える懸念があり、対応を急がねばならない」という趣旨の決議案が152カ国という圧倒的多数で採択されました。
 LAWSに関する国連総会決議はこれが初めてで、今年秋の国連総会では具体的な規制案が議題になる見通しです。
 また、国連決議を受けて2024年3月からは、特定通常兵器使用禁止制限条約(CCW)の枠内で、LAWSに関する政府専門家会合がスイスのジュネーブで始まりました。席上、国連の軍縮部門のトップである中満泉・事務次長は「機械が自律的に人間を標的にして殺傷することは、われわれの道徳上、あってはならないことだ」と述べ、国際社会での共通ルールづくりに強い意欲を示しました。
 こうした動きは今後、どのような形で実を結ぶのでしょうか。実は、152カ国という圧倒的多数でLAWS規制の決議案を国連総会で採択した際、ロシアとインド、ベラルーシ、マリの4カ国が反対し、中国やイスラエル、イラン、北朝鮮など11カ国が棄権しています。そうした国々を巻き込みつつ、どのような規制をつくりあげていくのか、目の離せない展開が続きそうです。
 フロントラインプレス 「誰も知らない世界を 誰もが知る世界に」を掲げる取材記者グループ(代表=高田昌幸・東京都市大学メディア情報学部教授)。2019年に合同会社を設立し、正式に発足。調査報道や手触り感のあるルポを軸に、新しいかたちでニュースを世に送り出す。取材記者や写真家、研究者ら約30人が参加。調査報道については主に「スローニュース」で、ルポや深掘り記事は主に「Yahoo! ニュース オリジナル特集」で発表。その他、東洋経済オンラインなど国内主要メディアでも記事を発表している。

参考文献・参考資料

AIで自律的に動く殺人ロボット(LAWS)の開発現状と規制の動向 開発急ぐ中国に米国も本腰、日本はどう対応すべきか(1/8) | JBpress (ジェイビープレス) (ismedia.jp)

殺傷能力のある「自律型兵器」の普及は止まらない? 加速する技術の進化と、合意できなかった規制 | WIRED.jp

殺傷能力のあるドローンをAIが“操作”する日がやってくる | WIRED.jp

自律型致死兵器システム - Wikipedia

究極のAI兵器「LAWS」、起動したら人類滅亡へまっしぐらか 殺人ロボットに法的・道徳的・倫理的な判断は期待できず(JBpress) - Yahoo!ニュース

人間の判断を介さない殺傷兵器 AIの軍事利用、開発と規制の現状は:朝日新聞デジタル (asahi.com)

ここから先は

0字
この記事のみ ¥ 100

この記事が気に入ったらサポートをしてみませんか?