見出し画像

2024年9月09日の近況報告 AIで一方的に人生棒に振る人がいる

画像は「アルミラージ」さんのフォトギャラリーを使用しています。

 画像生成AIの技術は日々進歩していて、卒業アルバムから画像を切り取って「脱衣GO!!」で全裸にしたり、あるいは下着姿にしたり、
 さらにはディープフェイク技術を使って妊婦に見えるように加工する事も出来るそうだ。


 AI推進派は、ある日自分や親族が全裸に脱がされた画像や、全裸で歩き回ってるディープフェイク動画が出回っても怒ったりしないだろか。
 画像生成AIに関しては実際、国際ロマンス詐欺にディープフェイク動画が使われてて、有名人の動画をでっち上げてそれで騙される人もいるとの事。特に韓国では深刻な問題になってるそうだ。


 何も女ばかりが被害に遭うんじゃなくて、男も被害に遭うんですよ。
 例えば「路上で全裸のオッサンに追いかけられた」とか言って「脱衣GO!!」した中年男性の画像や
「パパ活相手のパパとの記念写真」とか言って全裸の少女と寝たディープフェイク画像が上がれば「人生台無し」なんてことになりかねない。


 ここまで来ると画像生成AIに対しては断固として反対するしかない。こういう冤罪が発生する危険性があるからね。
 ある日突然露出魔としてでっち上げられて「人生台無し」になる危険性があるからなんだ。


 特に日本は「ケガレ」の文化で、1度でも不祥事があったら一生それを十字架として背負い続けなくてはいけない。っていうのがある。
 例えそれが後日冤罪だと分かってもだ。痴漢なんかも冤罪があるそうだけど1度捕まったら人生台無しなのはご存じの通りでして。
 この辺インテリヤクザがシノギのためにディープフェイク使ってまた悪いことをしそうな気がするんだが……。


 個人的には政治家や画像生成AI推進派の人が、ある日突然画像生成AIで全裸になったりディープフェイク動画で被害に遭う。ってならないと止まらないと思う。
 こう書くと「人柱」的なイメージで「非常に」ネガティブな感じがするが、そうでもしないと画像生成AI推進派は目が覚めないと思う。


Xやってます。日常生活で思ったことをつぶやいています。

作品一覧はこちらから。

よろしければスキおよびフォローをお願いします。

この記事が気に入ったらサポートをしてみませんか?