見出し画像

AIを使ってNSFWな画像を作成することについて。 Not Safe For Work(職場で見るには適さない)

私はNUDEをテーマにした作品も制作しているので、AIが制作活動にどのような影響を与えるのか、興味があります。

最近、AI画像に関する法律の話題も多いのですが、NSFW画像は”悪”という前提で議論されている印象があります。
ヌードや性をテーマにした作品は、重要で、素晴らしいと思っているので、なにが問題とされているのか整理してみました。
(AI画像に作品的価値があるかどうかは今回考慮していません)
著作権、肖像権、倫理観などの問題を分けて考える必要がありそうです。

NSFW画像をAIで生成することについて、以下のように考えています。

AIでの画像制作自体が問題ないとするなら、各国のNSFWの規定に従っていれば、AIでそれを制作、発表することは現時点では可能。

世の中的に、この分野のコンテンツは今後も大量に制作され、ここから技術的、文化的にも飛躍的に発展していくはず。

肖像権についての懸念があるので、個人としては倫理的にどう関わっていくかは継続して検討する。


Kickstarterでの、AI画像生成プロジェクト

先日、Kickstarterで、56,000ドルを集めた"Unstable Diffusion"のプロジェクトが、Kickstarterによって取り消されました。
NSFW画像に特化したプロジェクトでした。

そんなにNSFW画像が悪いのか?と思い、調べてみました。
KickstarterのCEOであるEverette Taylorの、この問題に関する記事。

主に以下のような懸念があり、却下されたようです。

  1. Kickstarterはクリエイターを支援するためのプラットフォーム。

  2. AIソフトの学習データには、クリエイターの同意のないデータが含まれている可能性がある。

  3. 誰かを危険にさらしている可能性があり、健全性を守る必要がある。

3については、NSFW画像の肖像権についても語られていると思いますが、主にAI画像生成自体が問題だと考えているようです。
ただこの分野は劇的に進化しているので、今後、方針が変わる可能性も示唆されています。

Unstable Diffusion 

却下されたプロジェクトが具体的に何なのか、Discordをのぞいてみました。

目的
プラットフォームやサービスに規制されない、自由で表現力豊かなAIの利用を促進する。

まあ要するに、クオリティの高い、NSFW画像をつくれるサービスをつくろうということみたいです。

Midjourney, DALL-E2などのサービスではNSFW画像の生成が出来ません。しかしこれは、サービスを万人向けにすることや、投資家、決算システムを考慮しての措置だと思います。
ヌード作品は多くの人に制作されているけれど、インスタグラムには投稿出来ないことに似ていると思います。

既存のAIサービスを利用した作品も投稿されていました。
写真のセクションでは、「これはAIによる画像生成なのか」と思うほどクオリティの高い画像もありました。

他のセクションには、驚くほどバラエティに富んだ画像が投稿されています。
各人の趣味嗜好についてはコメントしませんが、生成された画像自体は、ニュージーランド(NZ)の法律上、違法性はないようでした。
(日本国内での発表が認められない画像はあります)

生成、投稿される画像の合法性についてはしっかりとルール化されていて、違法の可能性がある画像については、管理者が削除する以外にも、コミュニティー内で報告できるシステムがあり、これは機能しているようです。

このプロジェクトは、今後は独自のサイトで資金を集め継続するようです。
データセットに含まれる画像は、クリエーターの許可なく集めるみたいですが、画像自体が違法な写真は取り込まないとのことです。

違法な画像が生成されやすいサービスにはなりそうですが、正しく使われるなら人気のサービスになるかもしれません。
ヌードもグーグルで検索するのではなくて、テキストで生成する時代が来るかもしれませんね。映像が生成できるようになるのも時間の問題でしょう。

AIでNSFW画像を制作する方法と懸念事項

写真的なNFSW画像を制作できる環境は限定されています。
私はStable Diffusion v1.5にNSFWに特化したモデルを追加して使用しています。

私が懸念しているのは、青の部分です。
著作権だけでなく、肖像権のない、または写真そのものが違法なデータが大量に含まれていると思われます。

LAION-5B

研究・技術開発の民主化を目的とした、約50億の画像とテキストのペアデータからなる大規模なオープンデータセット
Stable Diffusionは、LAION-5Bで学習されます。

AI Art "model" for Stable Diffusion

多くの人が、独自に写真を集めてモデルを作り、サイトで無料配布しています。NSFW画像に適した写真が多く含まれているので、仕上がりがより良くなります。

LAION-5Bに含まれているデータ

このサイトで確認出来ます。

"Nude Tokyo"で検索してみました。

篠山紀信氏の写真も含まれているので著作権の問題もありますが、特に問題だと思ったのは、盗撮や私的な関係で撮影されたと思われる画像も含まれていることです。

著作権を無視して無断で入手した画像を使ってAI画像を作成する行為は、様々な記事で紹介されているように、合法であったり、制作方法によってはオリジナル作品になりうるので、あまり気にはなりません。

しかし、データセットに肖像権のない画像や違法な写真が含まれていると、AI画像を生成する際に心情的に良い気分はしません

今後のStable Diffusionからはデータを削除するよう申請できます。ただし、肖像権を侵害する画像については、著名人でない場合、テキストと画像がリンクしていない可能性があり、画像を検索して削除を申請することは事実上不可能と思われます。

AIのNSFW画像の注意点

 
基本的に、画像は各国の法律に従って写真と同じように扱われるべきだと考えています。

【重要】特に注意しないといけないと思ったのは、被写体の年齢です。写真の場合はその容姿が主観的にどう見えようとも、モデルリリースとIDが適切であれば、合法的に発表できます。しかし、AIによる画像生成の場合、被写体は架空のものなので、主観的な見た目でしか年齢を判断することができません。民族や文化の違いで見た目の印象が変わることもあり、さらに判断が難しくなります。

おわりに

NSFW画像制作のリサーチを続けようと思います。
近い将来、AIによるNSFW画像は写真と区別がつかなくなりそうなので、実際のヌード撮影のアプローチもそれにあわせて変えていきます。

使用許諾を得たデータだけで作られたAI画像生成サービスの登場を期待します。

技術的にも法律的にも素人なので、間違っているところなどあればご指摘ください。

弁護士の意見

この記事を書いた後に弁護士に確認しました。
そのやり取りをまとめました。
基本的には私のリサーチした通りでしたので、ほぼ同じ内容ですが、興味ある方は、有料ですが私の制作活動のサポートだと思って読んでみてください。弁護士費用の足しにさせていただきます。

ここから先は

2,144字

¥ 100

この記事が気に入ったらサポートをしてみませんか?