女子大生が考える戦争とAIの基礎(1)
1.この記事を書くきっかけ
第一に私は戦争に興味がある。私は政治学を大学で専攻している。戦争がどのように起こるのかを理論的に把握することで、戦争の真の目的とは何か、人間はどこまで自己中心的なのかを学ぶことができる。そのような理由から戦争について学ぶことが好きだ。
昨年からウクライナ戦争がはじまり、新冷戦の時代は終わった。(新冷戦について詳しく知りたい方は以下のリンクを参照してほしい。新冷戦 - Wikipedia)それはつまり、世界がまた戦争の時代に突入することを意味している。また、今後の戦争にはAIが使われることが予想される。
今までどのように戦争にAIが利用されてきたか、これからどのように利用されると予想されるか、各国のAI兵器に対する反応、また大手AI兵器民間会社について、そしてそれらに対する私の感想などを複数回にわたってつづっていく。
サイバーパワーは国境を容易に超える。また、誰でも利用可能だ。だからこそ、各々の安全保障のために価値観や規範を共有する必要がある。このnoteが価値観や規範の共有の手助けになれば幸いだ。
(表紙の画像はReonald AIを使って書きました!かっこい~✨)
2.AI兵器は今までどのように利用されてきたのか
バラク・オバマは「議論の論点は国家が規範を構築するにあたり、サイバーパワーをどう使うかだ。そして攻撃と防御の境界線が曖昧になっていることが興味深い点だといえるね、サイバーセキュリティの議論の本質というのは人々が何を恐れているのかにもかかわる」と述べている。デジタル社会において利便性、サイバー空間への依存性が増しているのに対し、サイバー空間において機密性、完全性、可用性が攻撃される可能性は十分に高い。国防において機密性、完全性、可用性が失われることは安全保障がないことを意味する。
また、「インターネットやAI、その関連分野を取り締まるには政府が能力を持つ必要がある」とも述べている。しかし、無秩序でアナーキーな国際世界においてはどのようにAI兵器に対処すべきなのだろうか。
今回は国際世界に着目してAI兵器の利用法を考察していく。
AIの軍事利用法として、攻撃用のほかに偵察用、輸送用のものがある。また、今後は作戦の指揮統制システムにもAIが利用されると予想される。韓国やイスラエルは偵察用AIをすでに導入しており、アメリカは重い荷物を運ぶ「馬型ロボット」を開発している。
(1)DASA
DASAとは英国防省傘下の国防・セキュリティ促進機構だ。DASAは、機械学習を使って膨大な量の情報やデータを処理し、軍艦などのの意思決定に革命をもたらす技術の開発による国防軍の日常業務の支援を目的とし、AIのスタートアップに初期投資を行った。
(2)リビア(LAWS使用疑惑)
リビアはLAWSを内戦で実践に使用したとみられることが2020年6月22日国連安全保障理事会の専門家パネルの報告書で分かった。もし本当であれば、世界初のLAWS実戦使用例となる。LAWSについては次の章で詳細に説明する。
ちなみにリビアで2011年まで実質的な独裁者だったカダフィ氏は自称「大佐」!!アラブの春によるカダフィ生還崩壊後、豊富な原油資源とイスラム教と民主感も相性の悪さから、国家として迷走していることによる内戦だと考えられる。
(3)ウクライナ戦争
傍受したロシア兵の無線通信の会話を書き起こして解読したり、ソーシャルメディアに投稿された動画を基に顔認識技術を用いてロシア兵の身元を特定したりすることを目的として、アメリカ軍がウクライナ軍に軍事AIを提供した。
3.今後AI兵器はどのように使用されるか
(1)LAWSとは
AIの軍事利用法として、攻撃用のほかに偵察用、偵察用や輸送用のものがあると先ほど述べた。しかし、今後は完全自律型の殺傷AI兵器が利用されるであろう。完全自律型の殺傷AI兵器とはAI自らが判断をして、人間の介在を必要としない。これは国際社会では「自律型致死兵器システム=Lethal Autonomous Weapons System」すなわち、LAWSと呼ばれている。現在LAWSはアメリカを含む十か国以上で開発中だといわれている。
法に規制されていないのに、lawの文字が入っているのはなんだか皮肉で面白い。(笑)
(2)LAWSへの懸念とは
事故による軍事衝突の可能性の拡大が挙げられる。AIがもし間違えて
倫理上の問題
人の生死をロボットにより、無差別に行うことは倫理的にいかがなものだろうか…?
事故による軍事衝突の可能性の拡大
このような偶発的戦争のリスクを火花の戦争という。また、AIによるりヒューマンエラーを減らすことができるという意見もある。しかし、AIによるエラーの場合、責任の所在なども問題になる。また、AIにはあくまでAIのため、確実にバグやエラーが生じる。また、ハッキングされて人間を殺傷した時、だれが責任を負うのだろうか。
新たな軍拡競争
中国、ロシア、アメリカなど大国間で急激なスピードでAI兵器は開発されている。自国の兵士を殺さない安価な新たな戦力として、AI兵器は有用である。
虐殺手段のテロリスト・独裁者への拡散
核兵器よりもずっと安く、技術として使用しやすいため、民間虐殺の手段として使われる可能性が高い。
人間の想定を超える=暴走
ハッキングされたとき、人間の予想を超える動きをしてきたとき、人間に反乱してきたとき、目的のプロンプトを正確に入力していなかったとき…
AIは「暴走」する可能性を秘めている。
(3)LAWSへの法規制
対人地雷などを禁止してきた「特定通常兵器使用禁止制限条約」という条約の枠組みでの規制を目指し、120の加盟国による議論が続いている。
しかし、反対国とAI兵器開発国の間で意見が分かれており、国際的に強制力のある法が成立するとは考えにくい。
その中で、われわれはどうしていくべきか、またどの国がどのようなスタンスをとっているのか次回説明していく。
おまけ
今回の記事からAIと戦争についての興味がわいた人には伊藤計劃の虐殺器官を読むことをお勧めする。AIを戦争で使うことが一般的になり、大虐殺が行われている世界についてのお話だ。大虐殺が行われている理由にも迫る(オバマ大統領の話が超大ヒント!)。また、余力があれば伊藤計劃のハーモニーもお勧めする。すべてをAIが管理する世界、まさに我々が向かいつつある世界の終着点は何なのかを示唆してくれる(グロ注意)
この記事が気に入ったらサポートをしてみませんか?