見出し画像

超危険‼ ディープフェイク

トランプ大統領がよく使ったおかげで、
世界中に広まった言葉があります。

それが「フェイクニュース」

でっち上げのニセニュースを流して世間を混乱させることを
フェイクニュースと言いますが、
意図はどうあれ、こういうニュースは存在しています。

今はまだ、文章や映像の編集で行われている程度ですが、
これからのフェイクニュースはもっと危険なものになるでしょう。

例えばニセモノの映像をでっち上げたり?

ディープフェイク

ディープフェイクという技術は、
AIによってニセ動画をでっち上げる技術です。

その技術の進化は日進月歩で、
一般に普及しているモノはまだチープさが残りますが、
すぐにでも改良され、あっという間に本物の映像と同じ質になるでしょう。

ディープフェイクという言葉は、
AIが受動的に繰り返し学習していく「ディープラーニング」と、
ニセモノを示す「フェイク」という言葉が合体してできた造語です。

言葉の通り、
AIは、何度も繰り返し学習し、
とうとう人間をだませるほどの高度なニセ動画を作れるようになった
ということです。

フェイク動画の作り方

では、AIはいったいどのような方法でニセ動画をつくるのでしょうか?

たとえば、トランプ大統領など実在する人物のニセ動画を作る場合
まずターゲットとなる人物の顔写真を大量に用意します。
(用意する写真は、白黒でも、画質が悪くても構いません)
AIはそのデータからターゲットの平均的な顔の3Dモデルを作り上げます。
この3Dモデルに色やしわをつけて質感を出せば、ターゲットのニセモノが完成します。

さらに、このニセモノの人物をしゃべらせるためには、
ニセモノの声を作る必要があります。
その場合ターゲットががしゃべってる音声をAIに読み込ませ、
AIにニセモノの声を作らせればいいんです。

そのニセの音声を先ほどのニセ動画に当てはめればいいんですが、
動画にあわせてしゃべっているように見せるためには、
上手く口パクさせる必要がありますね。
この口パクの技術もちゃんと開発されていて、リップシンキング技術と呼ばれています。

このようにしてAIはより本物に近いニセ動画を作り上げています。

フェイク動画の使い道

こうした技術が開発されている理由はそれぞれですが、
良い使い道として考えられるのは、
バーチャル俳優ですね。

人間の俳優には限界があります。
例えば、ビルからビルへ飛び移るシーンを撮影するとき、
主役の俳優ではなくスタントマンを使わなければなりません。
スタントマンもケガをしたり、下手をしたら亡くなってしまうリスクがあります。
でも、バーチャル俳優ならどんな動きも自由自在。
空だって自由に飛ばせます。

ただ、全て良い方向で使われるとは限りません。
中には、この技術をとんでもないことに使う輩も現れます。

考えうる最悪の方法が、
政治家や著名人のニセ動画作り、スキャンダラスなことを言わせてしまうことですね。

ディープフェイクを使ったフェイクニュースですね。

たとえば、トランプ大統領が今まで以上に人種差別的なことをし口走ってる動画をでっち上げたら、
今起こってるアメリカの人種差別反対デモは、より過激になってしまうでしょう。

また、女優さんやアイドルなどはその技術でアダルト動画を作られてしまう危険性がありますね。

さらに恐ろしいのは、
ニセ動画を犯罪の証拠にして、自分の罪を人になすり付けることも可能だということですね。
事件現場の住人が防犯カメラ映像を提出するのですが、
実はその住人が犯人で、防犯カメラの映像がフェイク動画だったらどうでしょう?
自分が犯行を犯している映像を、他の人物がやったように書き換えることもできるんですよ?

残念ながら、良い使われ方をされる反面、悪い使われ方もされてしまうでしょう。
今までも画期的な技術が開発されてきましたが、必ず悪用する人は出てきます。

フェイクを見抜く技術

フェイク動画があるということは、もちろんフェイクを見抜く技術だってあります。
ニセモノだと判定する技術もまた、AIが行っています。

ただ、だからと言って安心はできません。

AIと言うのは、トライ&エラーを繰り返して学んでいくものです。
そもそもニセ動画と言うのは、
ニセモノかどうかを自己判定しながらリアリティのあるニセモノに進化してきました。
つまり、自分で作って自分でチェックして改良して、また自分でチェックして…
の繰り返しで本物に近い映像を作ってきたわけですね。

なので、他のAIにニセモノだと断定されればそれを上回る映像を作る可能性だってあるんです。

もし、世界最高のニセモノ判定をするAIがあるとします。
その判定をクリアすれば本物の映像と認定されるわけですが、
それをも上回るニセ動画が出て来たらどうなると思いますか?

ニセモノなのに、本物だと断定されてしまうわけです。

自分はやってないのに、事件を起こしてる動画がAIに本物だと認定されたら、
完全に犯人にされてしまいます。
そう考えると、とっても恐ろしい時代になっていくんだな、と思いますね。

ディープフェイクを普及させよう!

ディープフェイクの危険性や恐ろしさを書いてきましたが、
僕はそれでもディープフェイクは普及させた方がいいと思っています。

その理由はこうです。

ここから先は

678字

¥ 100

独自の世界を作り上げて発信する人を増やしていきたいので、サポートよろしくお願いします。