見出し画像

Deep FakeがもたらすDeep Impact

フェーク映像・画像を生成する技術である「ディープフェイク(Deep Fake)」は以前から問題視されていますが、最近東大がこんな発表をしています。

要は、
AIによる検出が難しい疑似フェイク画像を生成する新しい方法を考案し、それを元に訓練することで世界で最高の性能を記録した
という話です。

これは正直意表を突かれました。
敵(フェーク画像)の性能を上げることでそれを見分ける性能を磨き上げた、むしろそのフェーク画像生成能力がコアにあるようです。

元々ディープフェークは以前から課題としてあげられており、今はやはりこのニュースが話題になっています。

ディープフェーク初期は、「オートエンコーダー」と呼ばれるディープラーニングの1技法が主流でした。
そこでは、映像中の各画像情報を圧縮して特徴を取り出す役割と,そこから元の画像を復元する2つの計算処理で構成されています。

その入口とで出口を学習させたあとに、異なる人の顔で同じように学習させた結果を入口で接続する、というのがおおまかな手続きです。

最近では、ゼロショット学習法やGAN(Generative Adversarial Network(敵対的生成ネットワーク)なども画像生成能力が高まっており、コンピュータ ウイルスととその駆除にようにイタチの追いかけっこに近い印象です。


ということで、その手法はいくら追いかけてもきりがないですが、やはり怖いのは社会へのインパクトです。

特に最近では・・・こちらのニュースはぞっとしました。

この動画はすぐにフェークと検知されたそうですが、果たしてこの攻防の信頼性をどこにおけばよいのか?
我々一般人から見ると主観でしか判断できず、特に普段見慣れてないものだとその主観も極めて危ういものです。

ちょっと意地悪な指摘をすると、「この映像はフェーク」と唱える組織自身がフェークでないことをどう証明するのでしょうか?

今年に入って政府からも規制の声が上がっていますが、まだ具体的なアクションまでは耳に入ってきません。


ところで、ちょうど2022年4月にサイバー警察局が発足されました。

規模としては約240名で、これまで内容次第で生活安全局や警備局が都度判断で対応していたサイバー案件を国際的な連携含めて一手に引き受けるそうです。

さすがにその要員の素性まではつまびらかにしてませんが、結構ハードルは高い役割だと思います。
特に文中にも指摘している、情報保護やおとり捜査権限など、元々のしがらみをひきずったままのスタートなので機動性にどうしても限界が出てしまうと思います。

そして今回話題となったディープフェークへの言及が見られないのが気になります。

ここまでくると役割というよりはそういったことが出来る人材問題が焦点になると思います。
特に国家規模の活動ですので、安易に海外から招聘というやり方がとりにくい点もあります。

今の課題に悩むよりは、サイバー特有の法制度改善と合わせて、中長期の視点でサイバー対策のできる人材育成を官民結託して立ち向かうしかないかなと思います。

その意味で、今回の東大研究成果もぜひ警察局と連携しつつすすめていってほしいと感じました。

いずれにせよ、既にそういった活動に携わっているホワイトハッカーの方々はおり、心から敬意を称します。


この記事が気に入ったらサポートをしてみませんか?