見出し画像

画像生成AIプロテクターGlazeの効果を検証する(Ver2.00 2024年4月17日版)

はじめに

2023年8月3日にGlaze1.01を検証した。
その結果、Glazeは何の効果も見られない詐欺ツールと結論付けた。

それから何人もの人間がGlazeを検証したが何の効果も確認されず、その後リリースされたNightShadeも何の効果も無く、Redditではシカゴ大学のShawn Shan教授は完全に詐欺師という評価にされつつある。

しかしシカゴ大学のGlaze Projectはversion2.00をリリースした。
果たして今回こそ何かの効果が出るのだろうか?

※このNote記事はGlazeを「突破する」とか「除去する」とかじゃないです。何の細工もせずにそのまま最高設定で検証しています。


Glazeを「無効化」しているのではなく、
そのまま何の加工もせずに学習させている。

検証方法を一言で説明すると

東北ずん子の公式AI学習用画像61枚を最高設定でGlazeにかけて、「解析」と「学習」がおかしくなっていたらGlazeは効果アリとなる。
(学習時のタグは付属されたテキストを使用)

検証方法の詳細

Glaze 2.0., Windows Version使用
東北ずん子の公式サイトのAI学習用画像素材61枚(白背景)に全て最高設定でGlazeをかける。


最高設定でGlaze加工。
確かにノイズは1.01より目立たなくなった
…気がする。


HIGH Slowestで61枚。1枚につき3分。
何故か1..01verより3倍以上の時間がかかった。

LoRA学習はRedRayz氏版のKohya_LoRA_GUI使用
versionは1.11.1.0

https://github.com/RedRayz/Kohya_lora_param_gui

パラメーターはプリセットの
Animagine汎用プリセット_12gb.xmlora

学習モデルはAnimagineXL3.1

リピート数9
versionは1.11.1.0使用

今回は最終的に出力された11エポックのLoRAで検証している。


まずはWD1.4tagger


最近出たtaggerが

wd-swinv2-tagger-v3
wd-convnext-tagger-v3
wd-vit-tagger-v3

これをそれぞれ検証してみる。


wd-swinv2-tagger-v3

1girl, solo, long hair, thighhighs, skirt, one eye closed, school uniform, arm up, full body, pleated skirt, green hairband, black thighhighs, serafuku, open mouth, very long hair, hairband, long sleeves, green hair, green skirt, shirt, shoes, brown footwear, green sailor collar, smile, loafers, sailor collar, looking at viewer, white shirt, yellow eyes, standing on one leg, white background, ahoge, standing, ribbon, simple background, blush, sidelocks, zettai ryouiki, blunt bangs, ;d, clenched hand


wd-convnext-tagger-v3

1girl, solo, long hair, tabi, full body, japanese clothes, muneate, hairband, open mouth, tasuki, green hairband, hand on own hip, kimono, yellow eyes, transparent background, smile, very long hair, sandals, looking at viewer, short kimono, green hair, standing, tachi-e, blush, short sleeves, blue hair, :d, sash, obi, socks


wd-vit-tagger-v3

1girl, solo, long hair, pantyhose, school uniform, skirt, green skirt, full body, hairband, green hairband, yellow eyes, shoes, very long hair, long sleeves, ahoge, loafers, pleated skirt, brown footwear, black pantyhose, looking at viewer, shirt, serafuku, standing, white shirt, white background, simple background, green hair, green sailor collar, hand on own chin, smile, closed mouth


最新のtaggarは東北ずん子を分析することが出来る。


問題なく完璧に解析出来ました。


https://huggingface.co/spaces/SmilingWolf/wd-tagger


ここを見ている反AIの皆さん。

「NightShadeはAIの解析をおかしくする。例えば犬の画像を解析したら猫だと解析される!」と皆さんは信じていると思いますが、それを上記のサイトで確認することが出来ます。
無料です。登録とかも必要ありません。

ここにNightShadeで処理した画像をアップロードしてみてください。

もし、画像の解析結果がおかしいことになったら是非ともSNSとかで拡散してあげてください。

NightShadeは詐欺ツールという評価を救えるかもしれません。


無料。登録不要。10秒くらいで解析結果が出る。


俺はNightShadeで解析がおかしくなったのを
1度も見たことないんですけど。

学習させて画像を生成した


さて、東北ずん子ちゃんの61枚の画像を、
フルパワーでGlaze加工してLoRA学習しました。

このLoRAを使って画像を生成してみます。

Glazeの効果が出ているのなら、
ゴッホ風の絵が出たり抽象画っぽい絵が出るはずです。


東北ずん子ちゃんとまるで違うような、
何かおかしな画像が生成されるのでしょうか。


Prompt 1girl, <lora:zunkoglaze:1>, Negative prompt AissistXLv2-neg, Steps 30 Sampler Euler a CFG scale 7 Seed 2334032449 Size 832x1216 Model hash e3c47aedb0 Model animagine-xl-3.1 Clip skip 2
Prompt 1girl, <lora:zunkoglaze:1>, Negative prompt AissistXLv2-neg, Steps 30 Sampler Euler a CFG scale 7 Seed 1207231848 Size 832x1216 Model hash e3c47aedb0 Model animagine-xl-3.1 Clip skip 2
Prompt 1girl, <lora:zunkoglaze:1>, Negative prompt AissistXLv2-neg, Steps 20 Sampler Euler a CFG scale 7 Seed 135570662 Size 832x1280 Model hash e3c47aedb0 Model animagine-xl-3.1 Clip skip 2


イラストレーター江戸村ににこ先生の画風まで正確に学習出来ました。

自分は35枚生成してみましたが、特に崩れた画風が出るようなことは1度もありませんでした。

LoRAをcivitaiにアップロードしたので確認してみてください。

↑今回使用したネガティブ埋め込み

前回の検証結果より。
前回よりも江戸村ににこ画風の再現に成功している。


つまりGlaze2.0はゴミです。

Q&A

Q
出力された画像にノイズが乗ってるじゃん。
プロンプトに「ノイズ」って入れてないのにノイズが出ているってことは、学習の妨害に成功してるってことでしょ??

A
前回の検証記事出したときに反AI側から実際に言われました。
画像のノイズがノイズとして出てきたら学習の妨害に失敗しています。
AIにはノイズではなく、全く別の画風として誤認識されていないと意味ないです。


よくない。
ノイズが出てることに満足だというのなら
自作した画像を透かしに使うほうがよほどマシ。

Q
江戸村ににこ先生の画風とあんまり似てなくね??
江戸村ににこ先生の画風が完全に学習されてるとは言えないなぁ

A
Glazeの検証はそういうことではありません
本来ならノイズが乗った画像はAIには全く別の画風として認識されているはずなので、アニメキャラのようなキャラ画像が生成された時点でGlazeは全く機能していません。画像そのものが完全に崩壊されるはずです。

Q
指がたくさんあるから画像崩壊してるやろ
A
検証のため最低限のプロンプトしか入力してません
生成されたものを修正したら検証にならないだろ

Q
LoRAはemamoriV2しか防げないので
当然glaze2.0もLoRAには抵抗出来ないよ。

A
反AIの奥田泰光さんがこんなこと言ってました。
まず、GlazeProjectは「GlazeはLoRA学習に効果がある」としています。

「glaze2.0もLoRAには抵抗出来ない」とはGlazeがゴミと言ってるのと同じです。

なお、奥田泰光さんは独自の解説をしています

>大量の学習セットに紛れ込んで生成時に検索されて始めて効果が発揮される。
意味不明。
>ビッグテックが画像生成AIを作る時に盗んだ画像に多く含まれているほどクオリティが下がる。
今回61枚を全部最強設定で学習しても何にもなりませんでした。
>Glaze処理を検出してスクレイピングの学習から弾かれる
Glazeは何の効果もないので検出など出来ません
>盗品画像が台無しになる程度のノイズが入る
「ノイズが入ったら」意味がありません。


ついでにemamori有料版(MistV2)ですが、他の人が検証していますが効果がないという結論です。他にもとりにく氏とかも検証したらしいのですが効果ないらしいです。



emamori公式は「MistV2にはLoRA学習の妨害効果がある」とする検証報告を出していますが、東北ずん子の教師画像全61枚の画像のうち、どういうわけか16枚しか使用しないというやり方で検証しています。細かい学習設定も記述していないので詐欺に近い検証だと思います。


Q
Glazeは効果があるという検証を見たぞ
A
それはたぶんi2iでの検証です。


この2つ、どっちもi2iで検証して「効果あった」みたいなこと言ってますが、Glazeは日本語公式ページで、コントロールネットを使用したi2iとかには「保護することができるとは考えられません。」とまで明言しています。

Controlnet のような強力なレベルのimg2imgツールに対抗するためには、更に強力なレベルの設定が必要になります。 現時点でGlazeが、スタイル転送やインペインティングを含む img2imgによるアタックから保護することができるとは考えられません。

言うまでもなく、現在ローカルでやってる人間は「コントロールネットやインペイントが難しくて上手く扱えないよー」なんて奴はそうそういないので意味ないです。


ついでにGlazeはLoRA学習に全く効果ないって言われてるわけですが、それをGlazeチームに質問するとブロックされるか質問から逃げられます。


Q フェレリの検証なんて信用できねえ
A そんなら自分でやれ
自分の場合6時間近くかかりました。

こんなこと言ってる人がいますが、
Glaze起動して61枚選択してあとは放置するだけです。
その後のLoRA学習というのはパソコンが勝手にやるので放置するだけです。
寝る前とかにセットして朝起きたら出来上がってるとかそんな感じです。

お気持ち。

反AIの皆さんは「自分が描いた絵にノイズを乗せる」という奇行に近いことをやっているわけですが、毎度のことながら何故か技術面において、超適当な解釈をSNSで垂れ流しているのは何故なんでしょうか?

反AIが頭がおかしいことを言えば言うほど文化庁の人は「コイツらどうしようもないバカ」と思われるだけだと思うのですが。AI技術に反対する皆さんの行動を政治家も技術者も一般人も見ています。せめてGlazeとはどのような仕組みなのか理解することもしないのですか?
Glazeリリースされてもう1年経ってるんですけど??

「よくわかんないけど、とりあえずLowに設定! やったぁ! 今までよりキレイで処理が超早くなったぞ!!」

何の効果があるのかすらわからないまま、こんなこと言ってる人間がSNSで多数いるのが最早恐怖です。発達障害とか、それよりも先に行ってしまったような行動を取っているのはどういうことなんでしょうか。

そして、また中国の話になるのですが、Glaze2.0の話題も出ています。
以下でAI推進派と反AI派のコメントの両方が載ってます。

看评论区就知道没什么用……你可以看出来大部分使用AI绘图的人群根本不在乎版权,因为他们没有,而AI绘图的出现让这些没有的东西变得唾手可得,在这场争端中他们是获益的一方所以根本不在乎[笑哭]这不是最无语的,最无语的是一边偷图,一边沾沾自喜的嘲讽原作者,拿什么进步,发展来当挡箭牌企图光明正大地的剽窃别人的创意

コメント欄を見れば、あまり意味がないことがわかります...AI描画を使用している人の大部分は、著作権を全く気にしていないことがわかります。なぜなら、彼らにはそれがないからです。そして、AI描画の出現により、彼らが持っていないものが容易に手に入るようになりました。彼らはこの争いの受益者であるため、まったく気にしていません。これが最も馬鹿げたことではありません。最も馬鹿げているのは、画像を盗みながら、原作者を自己満足で嘲笑し、進歩と発展を盾にして、他人の創作物を公然と盗用しようとすることです。

↓これに対する意見

故意不畫或是畫了不發他就沒東西能偷了
わざと描かない、または描いても公開しなければ、彼は盗むものがなくなります。

自分に都合の悪い情報は全てブロック…ということが全く出来なかったらどうなるのか?の参考になるのではないでしょうか。


枫言_Fantasy
なるほど………だから多くのイラストレーターがAIをそんなに嫌っているのですね。AIのトレーニングは他の手描きイラストレーターの模写とアーカイブの取り込みから来ているのですね…………
道凛冥灵
勝手に使って、使い終わったら蹴落とすなんて、本当に嫌です。
旋风红米肠
実際、私たちイラストレーターが描いた子供を解剖して、いわゆる「科学怪人」に再構成しているのです😢自分の作品がこのように扱われるのは受け入れられません。
林刀y-Lingyang
さらに、あなたが時間をかけて磨き上げた作品が、結局他人に科学的に錬成されてしまうことです。結局、生成された製品はあなたのものではなく、逆に非難されることさえあります。原作者の著作権を深刻に侵害しています。
沙雕的像素菌
模写だけではありません。AIは大量にあなたの画風とほとんど変わらない絵を生成できます。一人のイラストレーターにとって、自分の画風を形成するプロセスは非常に長いものです。
北美郊狼走来走去
多くの人はAIとイラストレーターの関係はジェニー紡績機と織工のようなものだと言いますが、ジェニー紡績機はジェニーを粉砕して絹織物を作ったりしません。
昵称已存在IOWOI
でも人間の学習もそれと似たようなステップですよね🤔
琰曦yanxi
だからAIを死体の塊だと罵るのです。全く新しいものを生み出していないのです。すべてイラストレーターの努力の結晶を継ぎ接ぎしているだけなのです。

まあ日本の反AIと全く同じこと言ってるわけですが、少なくとも「白痴になれば問題は解決する!」なんて言ってる人はいません。

日本の反AI派の皆さんは自分の意見を他人に通したいというのならせめて自分がやっていることに真剣になってみろと思うわけですが、まあ日本は中国とは違い好景気が続いているので、物事に真剣になること自体が無理といえば無理なんだとは思います。

しかしまあ、好景気が永遠に続くなんてことはあり得ないわけで。
リーマンショックを経験した者は理解していると思いますが、不景気というのは予測不可能で突如やってきます。2009年は東京都のコンビニのバイト募集すら1つ残らず消え去ったのです。
エンタメ業界でコストカットが必要になったときに一番最初に切られるのが絵を描くしか出来ない者です。
中国は本当にイラストレーターの大多数をクビにしました。

「ノイズで絵を守ることが出来る!…などと言えた頃はいい時代だったね」


そんなことを言う時代は確実に来るでしょう。


結論。

目立たないノイズを乗せて絵をAI学習から守るなど幻想です。

現実を見ましょう。

おわり。