見出し画像

最先端技術〜ディープフェイク対策〜

みなさま
こんにちは!

今回は、ディープフェイク対策について書こうかと思います。

まず、ディープフェイクというものをみなさま
ご存知でしょうか。
ディープフェイクとは、AI(人工知能)を用いて、本物そっくりに真似て作成した、偽の画像、音声、動画などのことです。

2019年時点で、ディープフェイク音声を使った電話による詐欺が報告されております。
今後、ディープフェイク動画などを悪用した詐欺リスクがどんどん高まる恐れがあると言われています。

なんと言っても、かなり手軽にディープフェイク動画を作れてしまう、ということが懸念材料なのです。
例えば、Avatarifというアプリでは、撮影した動画に映る人の顔を別人の顔に簡単に差し替えれたりします。

私も中学生時代に、匿名メールというのがはやり、自分のアドレスを別の人が使用してメールを送る、というものがありました。
かなり迷惑がかかった思い出があり、こういったことは技術革新とともに、より高度になっていくなと感じています。

そういったディープフェイク対策として、
対策技術の開発や実装が進んでいるようです。

例えば、米フロリダ大学研修者グループは、
動画よりも偽物であることを見破りにくいディープフェイク音声(動画よりも情報量が少ないため)を見破る手法を開発しました。

それは、音声が発せられた時の声道の形状を推測し、その結果人間としてあり得ない形状だった場合、ディープフェイク音声だと判定するものとのことです。

上記、判定する工程は今回は省きますが、
算出した声道の形状がもっともらしいディープフェイク音声をつくるためには、現状では計算に時間がかかりすぎて困難、と結論づけられているため、有用なものであるとわかります。

ただ、こういったことは、永遠にイタチごっこが続くものでもあるため、なかなか完全決着がつくには難しいかと思います。

私たちも、触れている情報が、果たして本当に本物なのか、知見を広げ、見る目を養う必要があるなと感じています。

外にどんどん目を向け、勉強していきましょう!

この記事が気に入ったらサポートをしてみませんか?