地震などの災害時に注意したいAIフェイク画像やフェイク動画について
”AIフェイク”に関しては、私自身かねてから危惧というか、発信していしたことです。
生成AIの技術が急速な進化を遂げている裏で、悲しいことにそれが悪用されるケースもあります。
このnoteでは、Xやネットでのデマ情報や虚偽の情報に生成AIによる偽画像・偽動画が出回ったとき(目にしたとき)に、生成AIの知識がまったくない人でも偽画像・偽動画だと判別する方法等をまとめてみました。
画像生成AIにおいては、↑の私のXのポストでも触れたようにAIが生成した画像なのかどうかを判断するツール等もありますが、誤判断もあります。
画像生成AIで生成したフェイク画像を見破るコツ
「生成AIとかよく知らない、わからない」
「AI画像を見たことがない」
といったように、生成AIの画像についてよく知らない・知識がない方が、AIで生成されたフェイク画像を見破るコツ・確認すべきポイントを以下まとめました。
・画像の全体的な雰囲気や質感に違和感があるかどうか
AI生成画像は、パッと見るだけでは雰囲気や質感に違和感は感じられないかも知れませんが、全体的な雰囲気や質感に違和感がある場合があります。
例えば人物であれば、顔や体に違和感があったり(指が5本以上等、指の本数が多かったり少なかったり)、背景や建物だと不自然な光や影があったりする場合、AI生成画像である可能性が高いです。
普通に冷静に考えれば、違和感的なところは見破れるかと思います。
例えば、わかりやすいものだと『季節・時期』です。雪が降っている地域なのに雪の描写が一切無い、その地域特有の時期ごとで変化があるモニュメントなど、「あれ?この町、何か変だな」というのは冷静に見れば気付けるところだと思います。
・画像の周囲の状況に注目する
AI生成画像は、単体で生成される場合もありますが、他の画像と組み合わせて生成される場合もあります。
その場合、画像の周囲の状況に違和感があるケースがあります。
例えば、人物が浮いているように見える場合や、背景と人物のサイズが不自然に違う場合、AI生成画像である可能性が高いです。
・画像を拡大して細部に注目する
AI生成画像は、細部まで精巧に描かれている場合もありますが、それでも人の手で作られた画像と比べると、細部に違和感がある場合があります。
例えば、人物の服に不自然な折り目があったり、背景の文字に誤字脱字があったりする場合、AI生成画像である可能性が高いです。
特にAIによる画像は、まだまだ文字が不完全な描画が多く、中でも日本語の漢字は”変な中国語のような羅列”となっているケースは多いです。
また、AI生成画像は、拡大すると細部に違和感がある場合が多いため、拡大して見ると見破りやすくなります。
・画像の色合いを見る
AI生成画像は、基本的には人間の目には違和感のない色合いで生成されるように設計されていますが、それでも人間の手で作られた画像と比べると、色合いに違和感がある場合があります。
例えば、人物の肌の色が不自然に均一だったり、背景の色が不自然に鮮やかだったりする場合、AI生成画像である可能性が高いといえるでしょう。
これらの確認を行うことで、AI画像や動画を使ったデマの拡散を抑制することができるかと考えられます。やはりフェイク・デマを拡散してしまうことは抑えたいところです。
生成AIによるフェイク画像の見破り方・ポイントを説明しましたが、安易に信じて拡散しないことが重要です。
また、フェイク画像・フェイク動画、どちらの場合でも、情報元のチェックも重要です。
「フォロワーから、知り合いから回ってきた」
「タイムラインで見かけた」
「フォロワーが多い人が発信している」
といった程度で、本当はフェイク画像や動画なのにもかかわらず信じてしまうのは安易です。
極端かも知れませんが、「正直、地震や火事など、災害に関しての画像は基本信じない」くらいの気持ちでも良いかと思います。
まともなソース元・発信元であれば普通にまともな発信をするでしょうし、「テレビのキー局発信のものしか信じない」でも良いと思います。
-後記-
画像にしても動画にしても、生成AIの技術力を間違った方法に働かせて、フェイク画像や動画を作るという行為は言葉が悪いですが非人道的行為だと思っています。
AIで生成された画像かどうかを判断するツール等も複数ありますが、やはりまだまだ誤判断もあります。
フェイクを判別するだけじゃなく、悪質なフェイク作成者に今後、より罰則が課せられるようにってほしいものです。
例えば、画像生成AIのサービス・ツール側(運営側)の対策としては、『見えないウォーターマークの埋め込み』も対策の1つかと思います。
先日Xにて投稿した、↑の画像生成AIツール『Create Real Magic※』で生成される画像は『インビジブルウォーターマーク(『見えない透かし)』が適用されているということからも、開発元において可能な技術なのだと考えられます。
また、利用規約の改訂も期待したいところですが、これは正直弱いです。
例えば、AI画像を悪用したデマの拡散を禁止する条項が明記…されたところであまり抑止になりそうにないです。
AIによるフェイク画像や動画の確認する点まとめ
・画像の全体的な雰囲気や質感に違和感があるかどうか
・画像の周囲の状況に注目する
・画像を拡大して細部に注目する
・画像の色合いを見る
そして、拡散しないことが重要です。
この記事が気に入ったらサポートをしてみませんか?