見出し画像

本日の日記/ブラウザで使用できるPhotoshop webが(正式版なのに)あまり知られていない - Diary 2024/08/18

Ce journal est une sorte de mémo sur les activités quotidiennes du projet Generative AI.


8月18日(日)午前3時

高校講座:Adobe Firefly のアフターフォローの時に「合成という表記はおかしくないですか?」と質問を頂き、何のことだろう、と思いつつ確認。

英語だと「Composition」で変化なし。言語を日本語に切り替えると「構成」になる。

Composition Reference(左のUIパネルの表記)

….はずが、なんと「合成」になっていた。
「構成」から「合成」に変更されていました。最近ですよね。

「構成」が「合成」に変わっている

リファレンス機能なので、参照する対象が構成や構図、ポーズ、スタイル、キャラクターのようにイメージしやすい言葉にした方がよいと思いますので、とりあえず(「合成」になっていますが)「構成」のままで進めてよいのでは….

それよりも、Image 2には実装されていたネガティブプロンプトの機能が消えてしまったので、復活させてほしいですね…


18日(日)午前

正式版になったのに、Photoshop webがあまり知られていない。
ブラウザーのアドレスバーに「photoshop.new」と入力すれば起動します。
Adobe Expressを使っている人で高度な画像処理したい場合、とても便利なのでぜひ活用してほしい。

ブラウザーで使用するPhotoshop web

イラレのweb版はまだベータ版。
Adobe Expressではベクターデータの編集ができないので、正式版になったら強力な連携ツールになるはず。

ブラウザーで使用するIllustrator web

Firefly Image 3は、Adobe Stockにある生成AIの作品を調査することで、プロンプトを最適化できる。Firefly 商用利用の講座の中で少し紹介しています(ユニコーンのイラストの生成で)。

Firefly Image 3のAI顔の人物、Adobe Stockの生成AI作品を学習した?という仮説から


限界集落で活動中。
人が住む地域なら問題なくネットが使えますが、圏外の場所もある。
先日の対談では(他国ですが)もっと凄い場所で仕事している方がいたので、インターネット商用化から30年、ほんとに世界が身近になったと感じる。


18日(日)午後

今夜はライブ配信(第36回目)やりたいのですが、Podcastの収録があったので、いつもの時間になりそうです(夜11時頃)。

Midjourney V6.1とGen-3 Alphaで、新しいMVの制作方法を試す。

Runway Gen-3 Alpha

このMVプロトタイプのキャラクターは、Midjourney V6.1でかなり作り込んでいるので、今まで不可能だった演出を加えています。

Midjourney V6.1

このMVの(今までにない)特徴は「使用している画像が1つしかない」ということ。
Midjourney V6.1の生成画像を1つしか使っていません。
あとは、Gen-3 Alphaのプロンプトでバリエーションを出しています。

MV prototype

  • 再生時間:1分28秒

  • 楽曲はSuno AIを使用

プロンプトで表情コントロールがそこそこ効きます。
Gen-2の頃はモーションブラシで指定していましたが、ここまで表情豊かな表現はできませんでした。
Gen-2って2か月前は最先端だったわけで、こんなに早く陳腐化するとマニュアル化できないですね。動画生成AIは書籍にできない、講座コンテンツにできない等々、初心者が学ぶ環境が限られているのが辛いところ。


18日(日)夜

ライブ配信、できそう。夜11時頃から(結局、いつもの時間)。

夜11時45分からライブ配信します。
今回は、30分くらい短めの配信です。


18日(日)深夜3時

撮影スタジオに移動中。


8月20日(火)の日記へ


更新日:2024年8月18日(日)/公開日:2024年8月18日(日)

この記事が気に入ったらサポートをしてみませんか?