最近の記事

vicuna-13b-4bitを試したメモ

text-generation-webuiのインストール とりあえず簡単に使えそうなwebUIを使ってみました。 One-click installersで一式インストールして楽々です vicuna-13b-4bitのダウンロード download-model.batを実行して、https://huggingface.co/eachadea/ggml-vicuna-13b-4bitをダウンロード…しようとしたのですが、フォルダは出来るけどbinファイルはダウンロードでき

    • AITuberっぽく配信してみたメモ 5

      8回目の配信行いました8回目の配信行いました。チャンネル登録者が10人行ってて嬉しいです。 あとモーション追加してみて、動きに幅が出てちょっと画面が賑やかになりました。 今回のバグ BLIP2のpretrain_opt2.7bを使って、イラストにキャプションを付け、それを元に褒め言葉を生成する配信を行っていました。初めに配信せずに行ったテストでは正常に動作していましたが、配信を始めてしばらくすると、PCが落ちるようになってしまいました。 原因 BLIP2の処理、音声

      • AITuberっぽく配信してみたメモ 4

        6回目の配信うちの子「ゆぬか」の配信も5回目となりました。 はい、うちの子可愛いです。可愛いです。 前回から、さらに雑談部分のプロンプト変更しました。あとイメージ画像的なのを都度都度生成するようにしました。 ぽわんぽわんとこんなこと考えてるよーと。 前回からの改良点話題を変える系のプロンプトは基本的に話題を変えて10分経過しないと出現しないようにしました。 画像生成部分を追加して、なんとなく何話してるかわかるようにしました。 今回のプロンプトと反省点 今回は深堀して語っ

        • AITuberっぽく配信してみたメモ 3

          五回目の配信してみましたのんびりうちの子「ゆぬか」の5回目の配信をしていました。 前回配信で雑談モードで配信してるときに、結構不自然になったのでちょっと改良しました。 雑談部分のプロンプトちょっと変えてした配信がこちら。 改良点 ・文章量の調整 前回は出力された文章を一気に喋らせていたので、「。」「?」「!」でいったん切るように修正。 ・話速の調整 文章の終わりが「!」の時も「。」の時も速度が一定だったので、「!」の時に速度をちょっと上げてテンション上がってる風に修正。

        vicuna-13b-4bitを試したメモ

          LangChainのチャットボットで上手くいかなかったメモ

          LangChainのチャットボットで、memoryに会話ログとエンティティ使おうとしたら上手くいかなかったのでメモ エンティティをSystemMessgeに入れて、会話ログの方をMessagesPlaceholderに入れようとしたのですが見事に失敗。 片方だけなら上手く動いたのですが、両方だと上手く動かない。 _DEFAULT_TEMPLATE = """Relevant entity information:{entities}関連する ゆぬか の発言:{entiti

          LangChainのチャットボットで上手くいかなかったメモ

          LangChainのチャットモデルでミスったメモ

          LangChainのチャットモデル試すメモ うっかりでハマっちゃったミスです。 まずはキャラ情報入れてチャレンジ。 from langchain.llms import OpenAI,OpenAIChatsetting_content = """人工知能の名前は「ゆぬか」です。人工知能はとても知的で、創造的で、気さくで、日本語を話します。また ゆぬか は話題をよく変えます。同じ話題がループすることが嫌いです。「はい、」が続いたり同じような出だしで話すのはダメです。ゆぬか

          LangChainのチャットモデルでミスったメモ

          ChatGPT APIでDiscordBotを作ってみた

          参加してる創作グループの設定のQ&A BOTっぽいの作りたかったので作成したのでメモ こことか参考に作成。 まずは設定のテキストデータをざっくりインデックスに from llama_index import GPTSimpleVectorIndex, SimpleDirectoryReaderfrom llama_index.langchain_helpers.chatgpt import ChatGPTLLMPredictorllm_predictor = ChatG

          ChatGPT APIでDiscordBotを作ってみた

          AITuberっぽく配信してみたメモ その2

          ChatGPT APIが出たので、API周り修正完了したのでちょこっと配信してました。 今回の配信の自分用の反省点的なメモ ・プロンプト周り こんな感じで指示を出して会話させてたのですが、毎回説明文が挟まってたのが悪かったのか、「説明した物体についてどう思ったか感想を教えて。」ってプロンプトの場合に、物体がありませんでしたと答えるようになってしまいました。 物体の具体的な名前を入れるようにした方がよかったのかも? パターンで続けてたら、パターン変えるとき注意必要かも。 ・

          AITuberっぽく配信してみたメモ その2

          AITuberっぽく配信してみたメモ

          メモ的なものです。 うちの子の「ゆぬか」で配信してみたので忘れないうちに改良するためのメモ。 一気に話すから区切りによる緩急がない。 次のキューがあったら、続けて話してしまうから、一息つかせる処理入れた方がいいかも? 別の話題の指示出すときに、ちょっと長めに止まる処理入れるかなぁ。 雑談パートでチャレンジって単語が頻出するようになってしまった。 雑談部分は前と同じ表現が続くとループしてる感じがでるから、繰り返し禁止にするといいかも。 ちょっと上手くいってないから、プロンプ

          AITuberっぽく配信してみたメモ

          AIちゃんにランダムな物体作らせて説明させる遊びメモ

          プレゼンを自動生成するシステムを参考に、 アイテム名を生成→説明を生成→プレゼンを作成→AIに感想を交えて説明させる、みたいなシステムを作ってみたのでメモ。 出来たのがこれになりますが、画像生成に音声合成部分がネックで喋りだすまでに40秒くらいかかったから、配信させるのはちょっと間が持たないかも? 企画内容の説明部分、プロンプトの書き方でそのまま実在しないアイテムの説明まで行っちゃうので、ちょっと難しい。 括弧書きしてるかしてないかで返答変わるのが不思議。 ■失敗 人間

          AIちゃんにランダムな物体作らせて説明させる遊びメモ

          FlexGenで遊んだメモ

          FlexGenローカルで動かしてみたのでメモ windows10 メモリ64GB RTX3080 12gb githubに描いてるとおりの実行で、1.3Bまでは問題なくいけました。 git clone https://github.com/FMInference/FlexGen.gitcd FlexGenpip3 install -e . python3 -m flexgen.flex_opt --model facebook/opt-1.3b 次の30Bなんですが

          FlexGenで遊んだメモ

          obswebsocketで特定ソースのスクリーンショットを撮る方法

          BLIP2でキャプション作って、キャプションからAIにイラスト褒めさせる遊びしてました。 それで次はOBSの画面上のスクショを取得してAIになんか適当なこと言わせたかったんですが、スクショ取得する部分ではまっちゃったのでメモ。 これで適当なタイミングで要素を取得して、AIに適当なこと言わせられそうです。 import obswebsocket, obswebsocket.requestsimport base64import json# OBSに接続しますclient =

          obswebsocketで特定ソースのスクリーンショットを撮る方法

          AI生成絵っぽく塗れてきたのでメモ

          AI生成絵かどうか判定するみたいなサイトあったから遊んだメモ https://www.illuminarty.ai/en/illuminate まずはAI絵を参考に描いた絵と元絵 描いた絵と元のAI絵 途中途中での確率 斜め角度の構図とかも関わってるのかなこれ? 黒多めだとAIっぽさが上がる? 色のバランスとか背景のグラデーションとかが影響多きそうかも? 追記 AIっぽく塗れてきたやったー、って思ったら案外昔からそういう描き方なだけだった説が出てきてしまった悲

          AI生成絵っぽく塗れてきたのでメモ

          i2iでの個人メモ

          お絵描きに画像生成AI生かすための個人メモ WaifuDiffusion使用 出力サイズ i2iしてもいい感じにならないなって思ってたら、意外と出力サイズの影響ありました。 1024以上が良さそうかも? Steps: 20, Sampler: DPM++ 2S a Karras, CFG scale: 7, Seed: 2124533550, Size: 2048x2048, Model hash: e1de58a9, Denoising strength: 0.4, M

          i2iでの個人メモ

          Stable Diffusionで絵柄の学習試したメモ

          Stable Diffusionに絵柄覚えさせられるっぽいので学習と、GUI版で使ってみたメモ 学習はgoogle colab proで行っています。   基本はnpakaさんの記事を参考に使ってみました。 1 準備 上のnpakaさんの記事を参考に、google cloabで設定していきます。 ドライブ内にフォルダが作られたら、 textual_inversion/configs/stable-diffusion/v1-finetune.yamlの設定値を変更します。

          Stable Diffusionで絵柄の学習試したメモ

          とある下層の住民

          ※捏造設定過積載 ヴィルーパ下層とあるセクター。 中層から垂れ流される薬品混じりの雨が降り注ぐ。今日に限った話ではない、下層に降りてくるのはそんなものだけだ。 雨の中を歩く影があった。打ち捨てられた倉庫街を歩く影。中肉中背で特に特徴のない男は、フードの前を押さえて雨を凌いで足早に目的地を目指していた。 ツイテナイ、と胸中でごちる。偶然手に入れたメモリーチップを売り払う予定だったが当てが外れた。最近このセクターに進出してきたCMP(キャッチマッチパッチワークス)のサービス

          とある下層の住民