鍵乃ねこ

ずっと放置してましたが、再起動しました。 現在は、chatGPTやミッドジャーニーなど…

鍵乃ねこ

ずっと放置してましたが、再起動しました。 現在は、chatGPTやミッドジャーニーなどで遊びつつ、自分のスキル磨きも少々AEやらblenderやら、プログラミングやら……手を出しすぎて、収集ついてませんが。ここでは、やってる事でつまづいた事などもシェアしていきたいと思います。

マガジン

  • 日本AI研究所ノーベル

    • 0本

    ノーベルさん率いる AIオープンチャットの共同運営マガジンです 管理者 音楽×AI としびー

最近の記事

DifyでGemini使って自己紹介記事作ってみた。

特に、GeminiでないといけないとかDifyでないといけないとかないんだけど、なんとなく、Geminiがいいって聞いたので、ちょっとネタ的に自己紹介というか、なんというか。 年代ばれるんだけどね。 まぁ、こんな年代の人でも、AIガッツリやってる人がいるんだよーっていうネタ話的にw たまに、聞かれるんだけど、なんかうまく言語化できてなかったんで、ちょうどいいので、やってみたよ。 最終的な記事は↓ 最初のたたき台の記事は↓ (読みにくくてすみません) ここからGemi

    • Stable Diffusion WebUIをDifyで動かす。

      Difyのローカル環境を構築して、何種類かお試ししたので、今度は、 Stable Diffusion WebUIをDifyで動かしてみようと思う。 頑張った結果の忘備録みたいなものだけど、役に立ててもらえたらうれしい。 結論から言うと、資料の通りにやってもStable Diffusion WebUIが動かなかったんだよね。 ↓資料をChatGPTに翻訳してもらったやつ。 で、設定しても動かない……。 エラーの内容は、 Failed to get models, [Er

      • ChatGPTでStable DiffusionをDifyで使用するための設定方法を翻訳させてみた。

        わかりやすく解説してと付け加えて、ChatGPTで翻訳させた内容は以下の通り。 ステップ 1: 必要なハードウェアの確認 GPUの有無: Stable Diffusionは画像生成にGPUを推奨していますが、GPUがない場合でもCPUを使用して画像を生成できます。ただし、CPUだと処理速度が遅くなる点に注意が必要です。 ステップ 2: Stable Diffusion WebUIのセットアップ 1.WebUIリポジトリのクローン: git clone https:/

        • Udioのバージョンアップきました。

          2024.5.8 に「サブスクリプションとインペインティングの導入」ということで、Udioが有料サブスクを始めました。 今回の機能のほとんどがサブスクリプションに加入しないと使えないみたいですね。 ※バグなのかサブスク無しでも使えたっていう報告もありますが…… 課金した立場がない!!!((´∀`))ケラケラ サブスクリプションについてFree 無料で音楽が生成できます。 ・1日当たり10クレジット、さらに1か月あたり100クレジットを追加 ・標準処理キュー ・最大2つの

        DifyでGemini使って自己紹介記事作ってみた。

        マガジン

        • 日本AI研究所ノーベル
          0本

        記事

          Lone Wolf

          購入後に全編(04:22)を視聴することができます。

          有料
          100

          SunoがV3になって変わったこと

          3/22にSunoのV3が一般公開されました! アルファ版では、音質は良いけど、結構いろいろとバグも発見されてたみたいですね。 そんなSunoの現状について、体感だったり調べたことだったりを書いていこうと思います。 Sunoの仕様現状のSunoは、WebAPPで、V2とV3が動いていて、ディスコードでは、V1が動いている状態です。 ビデオクリップがディスコードも一新されたので、ちょっとV3キター!?と期待したんですが、残念なことに、V1のままでした。 WebAppとLi

          SunoがV3になって変わったこと

          UdioBetaの使い方解説(使い方は、無料範囲で全網羅)

          Sunoを超えたといわれるUdioが公開されてたので、お試ししてみた。 使い方を今回はできるだけわかりやすく解説したつもりです。 ちょっとずつ修正したりもしてたりします。 2024.4.27に少し仕様変更が入りました。それに伴い若干追記。 2024.5.1に仕様変更が入りました。 表に見えない仕様として、コンテキストやメモリの追加により、曲の一貫性が増したそうです。 2024.5.8にサブスクリプションとインペイントの追加こちらは別に記事にしてます。 Udioについてab

          有料
          100

          UdioBetaの使い方解説(使い方は、無料範囲で全網羅)

          ふと思ったことをやってみようと思う(Sunoさんの重箱の隅をつつく話)

          かなりSunoで遊んでるんですが、そういえば、まじめな使い方?しかしてないなと思い、ちょっといろいろ重箱の隅をつつく様なことをしてみようかなと。 V1の時に、創作言語歌わせたりもしたけど、今回は、ちょっと違う方向性で行こうと思う。 その1:Crateモードで作った曲をRemixでCustom Modeにして、続きが作れるかまずは、Creatモードでプロンプトを適当に入れて曲を作ってもらいます。 で、出来上がったものをRemixボタンを押して、Custom Modeへ移動。

          ふと思ったことをやってみようと思う(Sunoさんの重箱の隅をつつく話)

          速報?Copilotでsunoが使えるようになりました!

          現地時間の12月19日に米Microsoftが、Copilotのプラグインとしてsuno利用可能にしたとの発表がありました! 全員というわけではなく、段階的に使えるようになるみたいですね。 残念なことに、私のところはまだのようなので、ちょっとWebを検索した内容などをまとめてます。 対応しているのは、現在、Mac OSもしくは、Windowsになりますが、EdgeブラウザあるいはChromeブラウザでMicrosoftアカウントにログインし、Copilotを表示します。 プ

          速報?Copilotでsunoが使えるようになりました!

          Sunoで遊ぼ!V2がWebAppできたーーー!!新規登録方法も簡単にお知らせしますよー。

          note側の更新が遅れてましたが、Sunoが11/23にV2にバージョンUPしました。 といっても、現在は、WebApp上でのみV2が遊べるという状態で、まだディスコードには反映されてないようです。 何が変わったのかというと、一番大きくわかりやすい点でいえば、生成できる曲の長さが最大40秒から80秒になりました。 あとは、長尺の曲を作る場合に、一貫性がアップしたとか、多言語のサポートの向上、生成時間の短縮などです。 個人的には長い曲をよく作るので、一貫性のアップはうれし

          Sunoで遊ぼ!V2がWebAppできたーーー!!新規登録方法も簡単にお知らせしますよー。

          スケールについてまとめてみた。

          SunoAIだけでなく、ちょっぴり曲なんぞを作り始めたけど、いまいちいろいろ理解できない気もするので、おまとめしてみようと思います。 いやー、アウトプットが大事とはよく聞くけど、本当に大事だなぁと思う今日この頃。 個人用の忘備録としての意味もこめて、日ごろ使うドレミで、いろいろと表を作ってみた。 ピアノ譜とかギター譜とかで表現されてるのはあるんだけど、こんな感じで文字表示のがなかなか見つからなかったので、ちょっとやってみた感じです。 一応、ドレミファソラシドは、英語音

          スケールについてまとめてみた。

          Suno.AIで遊ぼ、長めの曲を作ります。

          こんにちは。 今回は、Suno.AIで長めの曲を作っていきたいと思います。 やり方は、簡単で、Continueで繋げていくっていうのが、方法です。 まずは、ChatGPTで長めの歌詞を作ってもらいます。 とりあえず、こんな感じ↓でできました。 タイトル: 壊れた心 (Broken Heart) スタイル: J-POP (Intro) 君と僕、僕たちの愛が壊れて 別れの涙、心の痛み (Verse 1) 君の瞳、君の微笑み、全て嘘だったの? 毎晩、君を恋しくて涙が流れ

          Suno.AIで遊ぼ、長めの曲を作ります。

          sunoで遊ぼ!歌詞やジャンルを選んで音楽作ろ!

          今日は、SunoAIをご紹介! 簡単に言えば、MidJourneyの音楽版みたいな感じです。 Discord上で、動く自動の音楽生成AIです。 使い方使い方は簡単で、SunoAIのサイトに行って、Discordに登録するだけ。 Discordへの新規登録の仕方などは、探せばいくらでも出てくるので、省略します。 動画での使い方の簡単説明はこちら↓ あとは、chirp-bata-X(Xは今のところ1から7まであります)を選択して、 chatに/chirpと入力して送信すると

          sunoで遊ぼ!歌詞やジャンルを選んで音楽作ろ!

          オーディオスペクトラムを実装してみた②

          第二弾。 "オーディオスペクトラムを実装したい!"では、前回みたいなのになるので、今回から、ちょっとだけ、最初の指示文を変えてみました。 で、できたのがこれ↓ 今回は少しは見れるようになった。 ちらつき多いし、ずっと見てるのはつらいけど(笑) 今回も見た目はそう変わらないので、前回の流用してます(;'∀') 音楽ファイル選択してくださいのテキストがなくなったくらいの差なので。 仕様としては、音楽ファイルを選択して、動画を生成ボタンを押せば、このプログラムのpyファイルと

          有料
          300

          オーディオスペクトラムを実装してみた②

          オーディオスペクトラムを実装するっていう話①

          アフターエフェクトとかで作れるオーディオスペクトラムをPythonで作れないかなーと思い立って、GhatGPTに聞きつつやってみたら、全然想像と違うのができた。 イメージとしては↓の動画の白い四角がぴょんぴょんしてるのを作りたかったのですが、↑ってガチのデータ収集というかなんというか用のやつ…(;'∀') AEっぽいのを実装するのは、結構大きなプロジェクトになると、ChatGPTさんにも言われてしょんぼりなのですが。 めげずに、いろいろいじる予定。 Tkinter使って

          有料
          300

          オーディオスペクトラムを実装するっていう話①

          AudioLDM 2を使ってみたよ!

          Text to Music第二弾! AudioLDMを使ってみたよ。 MusicGenの時に使ったのと同じようにテストしてみたいと思います! お題もプロンプトもその時のを流用したほうがわかりやすいと思うので、 流用します。 設定はいじらず、プロンプトのみの変更です。 プロンプトの制作はChatGPTさんにお願いしました! 1.特定の曲やアーティストを参照する プロンプト:"Compose a song in the style of 'Swan Lake' by Tc

          AudioLDM 2を使ってみたよ!