AI兵器がもたらす深刻な問題

 小型ドローンの大群やロボット兵士の集団が人びとを襲う・・・。数年後には現実の光景になっているかもしれません。AI(人工知能)を搭載した兵器の研究開発がいくつもの国々で行われています。AIが自らの判断で攻撃を決定して指示する兵器です。ロボット、ドローン、無人航空機などに応用されるでしょう。「自律型致死兵器システム(Lethal Autonomous Weapons Systems)」(LAWS)と呼ばれることもあります。
 もしAI搭載兵器が使われるようになると、深刻な人道上の問題が予想されます。戦争という状況であっても、AIに人を殺傷する意思決定を委ねてよいのかという倫理的な問題が生じます。また、AIも完全なものではないので、例えば民間人を殺傷してしまった場合に責任の所在を明らかにできるのかが問われます。AI兵器を使えば、自軍の死傷者を減らすことができます。また、ヒトを殺傷することから生じる罪悪感からそれなりに逃れることができるでしょう。そのため、戦争を始めることへのためらいが小さくなることが懸念されます。AIがハッキングされ、悪用されるリスクもあります。AIそれ自体は簡単にコピーできますので、低コストで小型の兵器を大量生産することも可能になるでしょう。
 軍事用ドローンや無人航空機は既に戦場で兵器として使われています。顔認証技術を応用して攻撃対象の人物を確定するロボット兵器(キラーロボット)もすでに実用化されています。AI搭載兵器を広い意味での非人道的兵器として禁止する国際的な取り組みが早急に求められます。

ロボット兵器の危険性を訴える動画(ストップ・キラーロボット・キャンペーン)

小型ドローン兵器の危険性を警告する動画(Stop Autonomous Weapons)
*暴力場面が含まれています。視聴に際してはご注意ください。

実際のドローン兵器の動画(STM社(トルコ))*暴力場面が含まれています。視聴に際してはご注意ください。




この記事が気に入ったらサポートをしてみませんか?