見出し画像

Sonic Boom Vol.3 ウクライナの戦争を支える米国パランティア~防衛AIの問題提起

<概略>
米国の防衛省にもAIシステムを納入しているパランティアという会社がある。この会社のAIはウクライナの軍の情報支援として提供されており、軍事力アップに貢献していると言われている。
一方、chatGPTなどに代表されるAIの過度な進展が人類に不幸をもたらすのではないか考える人がAIの有識者にもいる。
米国の非営利団体Future of Life Institute(FLI)が2023年3月22日(米国時間)に公開し、著名なAI研究者や技術者、経営者が署名した「全てのAI(人工知能)ラボはただちに、GPT-4よりも強力なAIシステムの訓練を少なくとも6カ月は停止せよ」というオープン・レターはその代表的なもの。
日本ではこのオープン・レターの主旨にたいしてなんとなくピンとこない反応が主流だが、ここに紹介したパランティアの事例(軍事の専門家でなくても軍隊を指揮できそうな情報ツール)などを知ることでAI抑止論についてもよりよく理解できるのではないかと考えました。

Part-1 Palantir technologies社の製品AIP for Defence

Palantir technologies社のAIプロダクト「AIP for Defence」
(https://www.palantir.com/) を知ってますか。
ウクライナとロシアの戦争に米軍がウクライナに提供した防衛AIシステムがパランティア・テクノロジーズ社のAIP for Defenceという製品です。

このAIについての説明ビデオがパランティア社のwebサイトに掲載されており、それがとても興味深かったので紹介します。
(まさに、映画の中の作戦本部みたいな感じです。)

PalantirのAIP for Defenceのビデオ

「Palantir AIP | Defense and Military」

★前段は省略し、下記のところから翻訳をざっと読んだあどでビデオを見るとわかりやすいです。
(翻訳文) ※左の数字は分・秒です。
下記の約1分30秒の間だけ見てみましょう。
ビジュアル的なインパクトが強いのでなんとなく軍事AIのことをわかった気になります。
1:28  まずは、東欧での活動を監視する軍のオペレーターから。
2:57 この3つの選択肢を指揮官に送り、確認してもらう。

英語がわからない人のために、ナレーションの翻訳を用意しました。
https://docs.google.com/document/d/1QvYmJGgSdnxHd-68WHwD0iN2G0hKvjkSSQipkOFTJkA/edit
※参考
ソフトウェアの狙い・主旨がわかる解説ビデオ
「Gotham in the Near-Peer Fight」
https://www.palantir.com/platforms/gotham/
(少し下に下がったところのビデオ)

※ビデオが英語で分かりにくいので、簡単に解説します。
ビデオでは下記のようなことが説明されています。
●AIが敵の軍事施設を監視し、異変を察知すると米軍にアラートを発する。
●AIが状況説明と取りうる対応策を提示。
●軍の上官が実行指示を出すとAIがそれを遂行する。
というものです。

もう完全に映画で見たような軍の作戦本部です。

Part-2 そもそもPalantir technologies社とは

Palantir technologies社の会社概況

米国のデータ管理・AIシステム開発会社。
秘匿性の高いAIPというAIのプラットフォームを提供しており、このプラットフォームの一つにAIP(AI platform) for Defenceという防衛専用AIプラットフォームがある。

<会社概要>
設立: 2003年5月6日
CEO: アレックス・カープ (2004年–)
従業員数: 3,734 (2023年)
収益: 15億米ドル(約2200億円)
時価総額 約4.5兆円
※あの有名投資家のピーター・ティールさんのファウンダーズ・ファンドの投資先
※StrainerによるPalantirの記事
https://strainer.jp/notes/7971

ダボス会議でCNBCのインタビューに答えるCEO
世界経済フォーラムでのCNBCとのインタビューで、Palantir のCEOであるアレックス・カープは、ヨーロッパでの戦争が世界経済の見通しに与える影響と、ソフトウェアにおけるアメリカの支配的な役割が地政学的にどのように良い力になるかについて論じている。
※英語がわからないとわかりにくいので、そのような方は割愛してください。

おまけ

Plantir社は実はwebサイト内では「AIP for Defence」のすぐ隣に「AIP for business」の説明ビデオも掲載しています。
https://www.palantir.com/jp/platforms/aip/
軍事AIのすごいところは各セクションの状況を把握し全体像を見据えた上で取りうる対応策の選択肢を即座に提示し、判断を得、すぐに実行するということだと思いました。
実は、それはビジネスも全く同じで、何が起きているかの状況を把握しその対応策を提示し判断を委ね、意思決定したら即座に実行に移すことができればいいと思います。
PalantirのAIはそういう意味でAIが管理する業務実行システムとして秀逸であることを軍事用AIの事例のすぐ隣で紹介している。
商業用のシステムと軍事用のシステムを並列に紹介しつつ軍事用の高い品質を商業用のシステムにも実現していますよと言っているようで「凄い」と関心するところです。

余談ですが、さらに面白いのはこのページの下にお問合せフォームがあること。
自衛隊や世界の軍隊がここから問合せするのでしょうか。
「問合せフォーム」から軍のシステムの相談するというのもなんだか面白いです。

Part-3 AI開発は原爆発明と同じか?

「AIの開発停止を求める公開書簡」(https://www.businessinsider.jp/post-267633)  イーロン・マスクなど著名人などから出されたニュースは皆さんご存じかと思います。
これらと関連したNew York Timesでの誌上での議論です。

New York Timesでの議論の背景

今年、オッペンハイマーという原爆の父と呼ばれた科学者の映画が公開されて(興行成績もいいようです。なぜか日本では未公開)いることもあり、パランティア社のAIを現代のオッペンハイマーを呼び、軍事AIに警笛をならすメディアもあります。
テロリストや犯罪集団に悪用され利用される、もしくはエンジニアが悪用する可能性だってある。
そういったことを知識人やメディアは危惧しているようです。
※マイクロソフトやグーグルは軍事利用開発への反対を従業員が表明などした結果撤退(?)の記事もありました。

New York Times誌面上での議論
1-Palantir CEOによる寄稿

2023/7/25 GUEST ESSAY
Mr. Karp is the C.E.O. of Palantir Technologies,
Our Oppenheimer Moment: The Creation of A.I. Weapons
https://www.nytimes.com/2023/07/25/opinion/karp-palantir-artificial-intelligence.html

かなりおおざっぱに私のまとめでは、
AIが悪いわけではなく活用方法の問題である。
テロリストがAI兵器を開発し、国家がそれに対応できず抑止力がなくなる。それこそ国家としての責任を放棄していることになる。

2-New York Times 執筆者からの意見コラム

2023/7/25 OPINION
Jeremy Ashkenas (NYT)
Not Everyone Is Against A.I. Weapons Research. Here’s Why.
https://www.nytimes.com/2023/07/25/opinion/karp-nyt-ai-oped.html?action=click&module=RelatedLinks&pgtype=Article

AI開発にむやみに反対しているわけではない。
倫理的課題やコンセンサスづくり、開発悪用への防御策など
もっと幅広い議論が必用だ。

というやりとりがされています。
ただ、これ以外にもNYTにはAIの脅威について様々な記事がありました。、それらの関連の一つとしてこの寄稿があると思います。

まとめ

私自身の考えはこうです。
細菌がなければ対応するワクチンは開発できない。
そう考えると悪用のリスクに対応するためにも正義の側が高いAI力を持たなければならない。
そのためにも開発を進めるべき。

最初は単純に「パンティアってすごいな」と思いました。
そして、次にこのようなAIの軍事・兵器利用が現実にあるからAIの開発を一旦中止すべきだという議論があることがわかった気がした。
そして、最後に、「パランティアのCEOのコラムがNYTに掲載されている」。そのことに日本のメディアと違う米国のジャーナリズムの懐の深さを感じました。
日本ではCEOがこのような書簡を書くことも、有力メディアで掲載されることもないとあまりないと思います。
皆さんがAIについて、考えるきっかけになるといいなと思います


この記事が気に入ったらサポートをしてみませんか?