見出し画像

AIスタートアップ企業と軍事について(MIT Technology Reviewの記事)

写真出展:Gerd AltmannによるPixabayからの画像https://pixabay.com/ja/users/geralt-9301/?utm_source=link-attribution&utm_medium=referral&utm_campaign=image&utm_content=1993900

 2022年7月7日にMIT Technology Reviewは、AIスタートアップ企業と軍事産業との関りについての記事を発表した。内容は、AIの実践投入における状況や国防総省などの取り組みを紹介するものである。AIは将来有望な技術として注目されており、特に軍事においては人間よりも早く正確に状況判断を可能とするようなものであると認識されている。技術の進歩で前のめりになっている面があるものの、倫理的な側面に着目した対応もなされており、適切なバランスを取っていくべく取り組みが進められている。今後の状況を見通すうえでの参考として、本記事の概要を紹介させていただく。

↓リンク先(Why business is booming for military AI startups)
https://www.technologyreview.com/2022/07/07/1055526/why-business-is-booming-for-military-ai-startups/amp/

1.本記事の内容について
 ・ロシアのウクライナ侵攻を受け、各国は軍の現代化に取り組んでいる。NATOは6月30日にAI、ビッグデータ、自動化を専門とするスタートアップ企業やベンチャーキャピタルを支援する10億ドル基金の創設を発表した。
  イギリスは新しいAI戦略を発表し、ドイツは1000億ドルの軍事予算のうち、5億ドルの人工知能や研究開発予算を計上した。
 ・ウクライナ戦争に伴い、AIの戦場への投入が加速している。しかしAIの戦争への活用は、長期的な倫理的問題も引き起こしている。軍と科学技術の関係は必ずしも良好とは言えなかった。2018年、グーグルは従業員からの反対により国防総省のプロジェクトメイブンから撤退するという事件があった。この事業は、ドローンによる爆撃を支援するための画像認識システムを構築するというものであったが、人権や倫理的側面を問題視した人間から攻撃を受け、一部の有名な開発者も関わらないことを宣言するという事態にまで至ったこともある。
 ・それでも、軍と科学技術企業の関係は深まってきている。AI企業は、書類の審査からデータ処理、戦場における高速の意思決定支援、哨戒活動支援など、多岐にわたるメニューを提示しているが、これらの技術はまだ初期段階にあり、必ずしも成功しているとは言えない。戦場については刻一刻と変化する複雑な系であることから、機械学習用の大量データ入手が困難であり、汎用的なシステムを構築することが非常に難しいとされている。
 ・このような中でも、軍はAIの実戦配備を推進し続けている。例えばイギリスは、2021年にAIを軍事作戦においてはじめて活用したと発表し、アメリカはスタートアップ企業と無人自動運転車両の開発を推進している。ただ一部識者からはこの傾向を懸念する意見も出ており、ビッグテックへの過度に依存することになる、倫理と有用性とのトレードオフの関係をいかに均衡させるかといった問題が出るとしている。
 ・予算の状況を見てみよう。NSCAI(米人工知能国家安全保障委員会)は、2025年までの計画として毎年80億ドルの予算を計上しなければ、中国の後塵を拝する可能性があると指摘している。中国はAI研究開発に少なくとも毎年16億ドルをつぎ込んでいるが、国防総省のAI関連予算は8.74億ドルにとどまっており、格差は一目瞭然である。(しかもこの予算も全額がAIに使われているわけではない。)欧州もAI導入に乗り出しており、欧州委員会は10億ドルの防衛技術予算を計上している。
 ・ただ、実戦配備に至るまでのハードルは高いものがある。まず、古くからある軍事産業との強い結びつきにより、ハードウェア主体となっていることからソフトウェアへの移行が進みにくいという構造がある。また軍のソフトウェア採用手続きが非常に煩雑かつ長期間に及ぶことから、日進月歩のAI業界についていくことができていない。巨額案件の実績は数件ある(1月にデータ処理契約2.5億ドル、2月に海底ドローン契約10億ドル)ものの対応が十分とは言えないことから、国防総省は新たなデジタル・AI長官としてクレイグ・マーテルを起用し、AI業界と防衛産業との橋渡しに尽力している。
 ・ただ国防総省は、推進一辺倒というわけではない。開発者向けの責任あるAIガイドライン及びAI倫理ガイドラインを公表し、AIの軍事活用について明確化するよう動いている。これらガイドラインが求めていることの一つは、人間がAIシステムを管理できるようにしておくということである。この目的は重要であるものの、実際には技術的に困難である。AIは人間よりも正確かつ高速に意思決定できるようにするために配備されるものであり、個々の意思決定ごとに人間が判断するのは現実的ではない。
 ・しかし、強い原理原則は必要である。ストップキラーロボッツという世界的な事業は、自動ドローン軍などによる虐殺兵器を禁止しようとしている。国連のグテーレス事務総長やニュージーランド政府などは、自動兵器が人の生死を決定するのは非倫理的であり、アルゴリズムのバイアスにより少数者への差別が起こりえるとしている。ただ自動兵器を全面的に禁止することは、軍産複合体からの大反対などがあり、困難を極めるだろう。この問題に対処するためには、どれだけ兵器の自動化を認めるのかについて考えなければならない。AIにより正確性を担保することで、不慮の犠牲者を減らすことが可能である一方、人間の代わりに暴力を振るわせるということにもなりえるのであり、この均衡をいかに図るのかが問題となる。

2.本記事読後の感想
  AIのスタートアップについてはこれまで何度か記事にしてきたが、今回は軍事とのかかわりに関するものである。ロシア軍はウクライナ戦争であまりAIを投入していないが、これは技術がまだ初期段階でありまだ有効に対処し得ないこと、誤った場合の損害が大きいことなどを懸念してのものと考えられている。
  確かにAIは額面通りに機能しない側面もあるが、実践投入を繰り返していくうちに改善されてくることも確かであり、挑戦する甲斐があるというものである。その意味でアメリカの状況は羨ましい限りである。ただ、中国も開発を進めていることから、予算に不足があってはならず、規制緩和などについても必要になるだろう。同時に民主主義国共通の原則として、倫理的側面に着目し、AIの活用が国民にとって脅威とならないような配慮もしていく必要がある。
  これまで科学技術は生活の利便性を高めるという点で受け入れられやすかったが、こと軍事については国民生活に悪影響を及ぼす可能性もあり、丁寧で慎重な対応が求められる。このことで技術革新の歩みが多少遅れることにはなるだろうが、それでも信頼を積み重ねる以外に国民が受け入れられるようにする方法はない。
  悲しいことに、日本ではこういった議論をする段階にすらないのが現状である。各シェアリング一つとっても大騒ぎしているようでは、軍事技術の革新などできるはずがない。誠に残念なことに、安倍元総理が亡くなり、悪夢の岸田政権が勝利してしまったため、今後3年間はあらゆるものが停滞し、経済の低迷も避けられないだろう。
こういうと暗い話ばかりであるが、若手議員にも政策を理解している人が増えていること、参政党のようなまともな政党が議席を獲得するなど明るい兆しもみられる。今後3年間を黄金の3年間とさせないためにも、国民がもっと賢明となり、統一地方選などで自民党にNOを突き付けるべきである。
  

 英文を読んでわからないという方は、メールにて解説情報をご提供させていただきます。なにぶん素人の理解ですので、一部ご期待に沿えないかもしれませんので、その場合はご容赦願います。当方から提供した情報については、以下の条件を守ったうえで、ご利用いただきますようよろしくお願いいたします。

(1) 営利目的で利用しないこと。
(2) 個人の学習などの目的の範囲で利用し、集団での学習などで配布しないこと。
(3) 一部であっても不特定多数の者が閲覧可能な場所で掲載・公開する場合には、出典を明示すること。(リンク先及び提供者のサイト名)
(4) 著作元から著作権侵害という指摘があった場合、削除すること。
(5) 当方から提供した情報を用いて行う一切の行為(情報を編集・加工等した情報を利用することを含む。)について何ら責任を負わない。

この記事が気に入ったらサポートをしてみませんか?