見出し画像

コラム0010 軍事利用される人工知能

 あるイベントで、外務省(防衛担当)のひとと、有名脳科学者がお話しているのを横で聞く機会がありました。外務省のひとの質問は、「兵器の人工知能利用に対して、国家間で一定の制約を取り決めたい、どうしたらいいでしょうか?」というものでした。これに対して、有名脳科学者は、「無理ですね。いいか悪いかに関係なく、利用が進むのは間違いない。現在の無人戦闘機では爆弾を落とす対象とタイミングを遠隔地の兵士が意思決定している。これがドローン編隊のように膨大な数になってくると、人工知能が利用されるのは自然な流れでしょう」、と答えていました。
 原子爆弾を開発したロバート・オッペンハイマーたちや、水素爆弾のエドワード・テラーたちも、自分たちの手で作らなくても誰かが作ってしまうという恐怖心を抱いていたようです。おそらくこの恐怖心はこれからも続き、残念ながら人工知能の軍事利用は止まることはないと思います。それでも国際会議で人工知能兵器の規制が議論されています。自動認識した標的の攻撃は禁止すべきとの報告も出されていますが、今のところ法的拘束力のある条約ではありません。
 これは軍事の話だけではなく、そもそも技術開発は必要かどうかの話にも置き換えられます。技術開発の進展に伴い、環境などのさまざまな問題も深刻化しています。ずいぶん前に、ある人から、「もう技術開発なんて止めたらいいのではないですか?」と問いかけられたことがあります。「今ある技術だけで十分でしょう。これ以上問題を引き起こしかねない技術開発はしなくていいのでは?」というご意見でした。私はその人が納得するような回答はできませんでした。今も答えは見つかっていません。

c. ロックオン


この記事が気に入ったらサポートをしてみませんか?