見出し画像

今後、不祥事を起こした芸能人の映像はDeepfakeで編集されるかも。

ちょっと古いニュースですが。

ディープフェイクというのは、既存のアダルトビデオのAVの映像を加工して、AV女優の顔を有名な一般女優やアイドルの顔と入れ替えてしまう、いわば「動画版アイコラ」です。

あるいは、既存のアダルトビデオのモザイク部分に、別人のモザイク無しのアソコの画像をハメて、あたかもすべて見えているように魅せるものもあります。

もちろん静止画のアイコラと違いますので人間の手で切って貼ってしているのではなく、AIに芸能人の顔やアソコの形を学習させて、AIに自動で改変させる技術です。

この技術は、べつにスケベな目的だけに使えるわけではなく、例えば菅首相が絶対に言わなさそうな言葉を映像の中で言わせてみるとか、習近平氏が靖国参拝をする映像なんかも作れます。

要するに、なんでもできる(笑)。

それで思ったのですが、よく芸能人が何か不祥事を起こすと、その人が映像に映らないように必死な編集が施されますよね。最近だとTOKIOの山口さんや、雨上がり決死隊の宮迫さんの事例なんかが記憶に新しいと思います。

でも、ディープフェイクの技術を使って、彼らの顔を別人に挿げ替えてしまえば、編集する人もずいぶん楽になるんじゃないかな、と思いました。

そもそも、ちょっと不祥事を起こした程度で映像が使えなくなるっていう文化もどうなのかって思いますが、そのせいで多額の賠償金を請求されるタレントも自業自得の範囲を超えてますよね。ベッキーさんとか損害賠償請求どれくらい来たんだろ。

でもディープフェイクで顔を挿げ替えるだけで映像がそのまま使えるなら、不祥事を起こしたタレントの負担も軽くなりますよね。

誰の顔に挿げ替えるか、って問題もありますけど、まあそれは多分「私の顔を使ってください」っていうタレントもきっとたくさんいるでしょう。

たまたまディープフェイクの記事を読んでいて、ふと思いついたので書きました。しょうもない記事でごめん。

この記事が気に入ったらサポートをしてみませんか?