TAKEO TAKAHASHI

東京さくらユニバーシティー物語作者 https://chat.openai.com/g…

TAKEO TAKAHASHI

東京さくらユニバーシティー物語作者 https://chat.openai.com/g/g-rBEb8JkZa-tokyosakuraunivercity AIクリエーター

マガジン

  • 東京さくらユニバーシティ物語

    男子3人、女子3人が繰り広げる東京さくらユニバーシティ物語

記事一覧

SD-ForgeできれいなAnimationを作るには

綺麗にsd-forge-animatediff.gitでAnimationを作るには下記の組み合わせを見つけることかなと思います。 realcartoonRealistic_v16.safetensors で作成していますが、下記…

TAKEO TAKAHASHI
12日前

StableDiffusionとForgeのAnimateDiff比較

https://youtube.com/shorts/uuBwszHQ2WY Dell VICTUS 15L  GPU: rtx4060TI を購入したので、 stablediffusionとForgeのAnimateDiffの比較をしてみた。 StableDiffusio…

TAKEO TAKAHASHI
3週間前

Haiper AI Videoを使ってみた。それとLumaAI StableDefusionとの組み合わせ。

https://www.youtube.com/shorts/LFR7BqnxfWs いろいろVideoのツールが出てきました。 最初のドラゴンはLumaAIで作成ています。プロンプトはGPTsで作成してもらいました。…

TAKEO TAKAHASHI
3か月前

Sora並みと言われるLuma. AIを使ってみた。カフェとバイクのドライブ

Stablediffusionで画像を作成して、LumaAIで動画作成をしてみました。 バイクを画像を使って走らせようと思いましたが何度やっても背景がちょっと動く感じで不自然になりだ…

TAKEO TAKAHASHI
3か月前
5

GPTSで一番使っている英語学習プロンプト

https://chatgpt.com/g/g-Gv1c4ZuTh-englishtojapaese 2024年6月1日 最近、無料版ChatGPTでもGPTsが使えるようになったので、上をクリックして使ってみてください。…

TAKEO TAKAHASHI
4か月前

StableDiffusionで3頭身のキャラクターの動画作成

BigHead3Dのモデルを使ってみたのですが、目が壊れてフェイク動画にすることができませんでした。それで、モデルとかプロンプトを使うのではなくてBigHead3Dの画像をCivita…

TAKEO TAKAHASHI
4か月前

幻想的な動画をStableDiffusionでReactorを使って知り合いをモデルに

Civitaiのプロンプトを使ってAnimteDiffで動画を作ろと思ったら、GoogleColaboもPaperspaceもエラーになって動画を作れませんでした。画像は問題ないです。 しかしPCでは動…

TAKEO TAKAHASHI
4か月前
8

Stable diffusionで幻想的なアニメ動画を作成。Reactorで好きなモデルに。

https://youtu.be/7qEqyKD4kRc 作った動画 同じプロンプトでモデルを変えて作ってみました。 プロンプト 1girl,dancing,[(Transparent background:1.5)::5],(masterpiec…

TAKEO TAKAHASHI
4か月前
4

RealとAnimeのミックス💃AI動画のつくり方

今日は(日曜日の午前中)GoogleColabが使い物にならないぐらい遅いのでPaperspaceの有料のGPUを使いました。(相変わらず無料がなかなか使えない)どちらもアメリカの時間…

TAKEO TAKAHASHI
5か月前

GPTsでGoogleのAPIを使う方法。2つのAPIを設定する。

GPTsのAPI呼び出しで非常に便利なGPTsを作成することが可能。 特に2つ以上のAPIを使う場合は、プログラムと比べても非常に汎用性の高いものを作成することが可能です。 Go…

TAKEO TAKAHASHI
5か月前
12

CapCutでAIダンス動画タムさんの作り方

Stablediffusionを使ってフェイク動画を作る。 タムさんからリアルな写真を貰います。 GoogleColabのStableDiffusionを使いました。 Paperspaseより早いのと、最近はPaper…

TAKEO TAKAHASHI
5か月前
3

StableDiffusion AnimateDeiffのIP Adapter(FaceID Plus v2)を使ってフェイススワップしてみました。

controlnetは !git clone https://github.com/Mikubill/sd-webui-controlnet の最新版ControlNet v1.1.443を使ってます。 何回か試す為にGoogleColabもPaperspaceを同時に…

TAKEO TAKAHASHI
5か月前
5

AnimateDiff でシナリオ作成。 Prompt travel でダンス動画

img2imgでPrompt Travelを使ってダンス動画を作ってみました。 pointはmajicmixRealistic_v7.safetensors プロンプトは 1girl, (anime style), dancing hip-hop, wearing…

TAKEO TAKAHASHI
5か月前
1

AnimateDiffでディープファェイクのダンス動画を作る方法

https://youtube.com/shorts/5BM53ogvQi8 2024年4月の時点でStable diffusionのimg2imgでAnimatediffとreactorを使うのが最もいい方法だと思う。本日paperspacrのMov2Mov…

TAKEO TAKAHASHI
6か月前
3

Stable diffusion txt2imgでIP adapterを使ってアニメーション

AnimateDiffのVideo sourceに動画をいれてControlNetのIP adapterを使って、動画をつくってみた。使った動画はこちら AnimateDiffの設定 contralnetの設定 Mov2Movと比…

TAKEO TAKAHASHI
6か月前
2

Stable Diffusion Img2imgでReactorを使ってダンス動画をつくってみた

IP adapterよりReactorの方が写真に似ている感じがでるかも。 プロンプト ((1girl)), dancing girls hip-hop, wearing hip-hop fashions ネガティブプロンプト (low qual…

TAKEO TAKAHASHI
6か月前
1
SD-ForgeできれいなAnimationを作るには

SD-ForgeできれいなAnimationを作るには

綺麗にsd-forge-animatediff.gitでAnimationを作るには下記の組み合わせを見つけることかなと思います。
realcartoonRealistic_v16.safetensors
で作成していますが、下記の設定できれいにAnimationが作成来ています。
以前は終了の画像を指定しないと、途中で崩れたのですが、この設定ではだいじょうぶそうです。70フレームまで試してみま

もっとみる
StableDiffusionとForgeのAnimateDiff比較

StableDiffusionとForgeのAnimateDiff比較

https://youtube.com/shorts/uuBwszHQ2WY

Dell VICTUS 15L  GPU: rtx4060TI を購入したので、 stablediffusionとForgeのAnimateDiffの比較をしてみた。

StableDiffusionの環境はこんな感じ
Python 3.10.6 (tags/v3.10.6:9c7b4bd, Aug 1 2022, 2

もっとみる
Haiper AI Videoを使ってみた。それとLumaAI StableDefusionとの組み合わせ。

Haiper AI Videoを使ってみた。それとLumaAI StableDefusionとの組み合わせ。

https://www.youtube.com/shorts/LFR7BqnxfWs

いろいろVideoのツールが出てきました。
最初のドラゴンはLumaAIで作成ています。プロンプトはGPTsで作成してもらいました。
プロンプト作成の専用のGPTsがありました。自分で作成してもうまくいかなかったので。
それと今回はHaiperAIを使ってみました。今後期待できると思います。今はまだ4sの映像し

もっとみる
Sora並みと言われるLuma. AIを使ってみた。カフェとバイクのドライブ

Sora並みと言われるLuma. AIを使ってみた。カフェとバイクのドライブ

Stablediffusionで画像を作成して、LumaAIで動画作成をしてみました。
バイクを画像を使って走らせようと思いましたが何度やっても背景がちょっと動く感じで不自然になりだめでした。(テキスト入力のほうが得意かもしれません)動画の破綻はないので、そこに慎重に作っている感じはします。
Luma Dream Machine (lumalabs.ai)

カフェでコーヒーを飲んでるカップルはい

もっとみる
GPTSで一番使っている英語学習プロンプト

GPTSで一番使っている英語学習プロンプト

https://chatgpt.com/g/g-Gv1c4ZuTh-englishtojapaese

2024年6月1日
最近、無料版ChatGPTでもGPTsが使えるようになったので、上をクリックして使ってみてください。

会社でもいつでも自分が使っているGPTsです。
解らない英単語、日本語を入れるだけです。

プロンプトはこんな感じです。

You are my English teach

もっとみる
StableDiffusionで3頭身のキャラクターの動画作成

StableDiffusionで3頭身のキャラクターの動画作成

BigHead3Dのモデルを使ってみたのですが、目が壊れてフェイク動画にすることができませんでした。それで、モデルとかプロンプトを使うのではなくてBigHead3Dの画像をCivitaから頂いてimg2imgで使いました。
モデルとしては以下を使いました。
realcartoonRealistic_v13.safetensors

プロンプト
((1girl)),((big head cartoo

もっとみる
幻想的な動画をStableDiffusionでReactorを使って知り合いをモデルに

幻想的な動画をStableDiffusionでReactorを使って知り合いをモデルに

Civitaiのプロンプトを使ってAnimteDiffで動画を作ろと思ったら、GoogleColaboもPaperspaceもエラーになって動画を作れませんでした。画像は問題ないです。
しかしPCでは動作しました。

Civitaiにあるモデルに使っていたプロンプト
1girl, dancing, official art, unity 8k wallpaper, ultra detailed,

もっとみる
Stable diffusionで幻想的なアニメ動画を作成。Reactorで好きなモデルに。

Stable diffusionで幻想的なアニメ動画を作成。Reactorで好きなモデルに。

https://youtu.be/7qEqyKD4kRc

作った動画

同じプロンプトでモデルを変えて作ってみました。

プロンプト
1girl,dancing,[(Transparent background:1.5)::5],(masterpiece),(best quality),(extremely detailed),illustration, solo,mysterious,vivi

もっとみる
RealとAnimeのミックス💃AI動画のつくり方

RealとAnimeのミックス💃AI動画のつくり方

今日は(日曜日の午前中)GoogleColabが使い物にならないぐらい遅いのでPaperspaceの有料のGPUを使いました。(相変わらず無料がなかなか使えない)どちらもアメリカの時間帯は混んでる感じです。

アニメにチャレンジしてみましたがで本人と似た顔お作るのは結構難しいですんね。ReActor後に目が壊れてしまうケースが多いです。Denoising strengthをちょっと高めで設定してみ

もっとみる
GPTsでGoogleのAPIを使う方法。2つのAPIを設定する。

GPTsでGoogleのAPIを使う方法。2つのAPIを設定する。

GPTsのAPI呼び出しで非常に便利なGPTsを作成することが可能。
特に2つ以上のAPIを使う場合は、プログラムと比べても非常に汎用性の高いものを作成することが可能です。
GoogleのPlaceAPIを使った例についてす。
プログラムでPlaceAPIを使う場合は初めにキーワード検索でなどでいくつかの候補を抽出して、PlaceIDを知る必要があります。その後、PlaceIDを元に店舗の詳細情報

もっとみる
CapCutでAIダンス動画タムさんの作り方

CapCutでAIダンス動画タムさんの作り方

Stablediffusionを使ってフェイク動画を作る。

タムさんからリアルな写真を貰います。
GoogleColabのStableDiffusionを使いました。
Paperspaseより早いのと、最近はPaperspaseの無料のGPUが空いていないため、結構割高になってきました。

自分の好きなモデルmagicmixrealstic_v7とXXMix_9realsticを初めて使ってみま

もっとみる
StableDiffusion AnimateDeiffのIP Adapter(FaceID Plus v2)を使ってフェイススワップしてみました。

StableDiffusion AnimateDeiffのIP Adapter(FaceID Plus v2)を使ってフェイススワップしてみました。

controlnetは !git clone https://github.com/Mikubill/sd-webui-controlnet
の最新版ControlNet v1.1.443を使ってます。
何回か試す為にGoogleColabもPaperspaceを同時につかってます。
生成スピードは自分のPCが一番早くて、Paperspaceが一番遅いです。

設定はこんな感じになります。

プロ

もっとみる
AnimateDiff でシナリオ作成。 Prompt travel でダンス動画

AnimateDiff でシナリオ作成。 Prompt travel でダンス動画

img2imgでPrompt Travelを使ってダンス動画を作ってみました。

pointはmajicmixRealistic_v7.safetensors

プロンプトは
1girl, (anime style), dancing hip-hop, wearing a dark blue hoodie on the street
0: open eyes
5: closed eyes
8: o

もっとみる
AnimateDiffでディープファェイクのダンス動画を作る方法

AnimateDiffでディープファェイクのダンス動画を作る方法

https://youtube.com/shorts/5BM53ogvQi8

2024年4月の時点でStable diffusionのimg2imgでAnimatediffとreactorを使うのが最もいい方法だと思う。本日paperspacrのMov2Movの環境は削除して。

PC環境:webui  v1.7.0

GoogleColab環境:webui  v1.7.0 と 最新版

Pap

もっとみる
Stable diffusion txt2imgでIP adapterを使ってアニメーション

Stable diffusion txt2imgでIP adapterを使ってアニメーション

AnimateDiffのVideo sourceに動画をいれてControlNetのIP adapterを使って、動画をつくってみた。使った動画はこちら

AnimateDiffの設定

contralnetの設定

Mov2Movと比べて顔はあまり似ていませんでしたが映像としてはスムーズですね。

コンソールを見るとエラーになっているので、ip_adaperは効いてないようです

2024-04

もっとみる
Stable Diffusion Img2imgでReactorを使ってダンス動画をつくってみた

Stable Diffusion Img2imgでReactorを使ってダンス動画をつくってみた

IP adapterよりReactorの方が写真に似ている感じがでるかも。

プロンプト
((1girl)), dancing girls hip-hop, wearing hip-hop fashions

ネガティブプロンプト
(low quality:1.3), (worst quality:1.3),(monochrome:0.8),(deformed:1.3),(malformed ha

もっとみる