見出し画像

【ずんだもん】ローカルLLMにずんだもんの声で応答させる【LLM】

はじめに

ローカルLLMを実行できる ollama Open WebUI にずんだもんの声で応答させる「工夫」の紹介をします。各ソフトウェアのインストールさえできれば簡単に実現できます。

※ Open WebUI にはwebAPIのTTS読み上げ機能はありますが、VOICEVOX を直接操作する方法がないので、クリップボード経由での工夫です。Windowsでの説明を行います。

前提

① VOICEVOXがインストール済みであること

② Open WebUI がインストール済みであること

VoivoClilpのインストール

クリップボードに貼り付けられたテキストを VOICEVOX で読み上げるアプリです。クリップボードの変更を検知して読み上げます。

公式レポジトリはこちら

右欄の「Release」から最新版「VoivoClip_0.3.3.zip」をダウンロードします。解凍のみで、特にインストール作業は必要ありません。

※ ダウンロード時にChromeにいろいろ怒られます。筆者環境では何も検出していませんが自己責任でお願いします。Chromeも安全側で厳しいチェックにしているのでしょうが、最近はあまりにも多く狼少年になり、誰も気にしなくなる事が怖いですね。気になる方は、Python仮想環境で pip install -r requirements.txt で導入する事ができます。(もちろん安全なわけではなくChromeによる確認がないだけです)を

各種設定

Open WebUI

せっかくなので、ずんだもんモデルを作ります。LLMモデルはQwen2にしています。
「ワークスペース」→「モデル」

ずんだもんのシステムプロンプト

「設定」→「インターフェース」

クリップボードへの応答の自動コピーをオンにします

これで文字生成後に、自動でクリップボードにコピーされます。

VOICEVOX

起動するだけです。

VOICEVOX

VoivoClip

解凍したファイル内の「VoivoClipNC.exe」をダブルクリック実行します。「開始」をクリックすると、クリップボードの変更を検知するたびにその内容をVOICEVOXで読み上げるようになります。

※ 実行時に署名がないとWindows の警告が出るかもしれません。

VoivoClip

実行

Open WebUIで実行

生成が終わるとクリップボードに転送されるので、VoivoClipが変更を検知して自動で読み上げます。

現バージョンのOpen WebUI付属のTTSスピーチ機能は速さを調節する事ができないので、クリップボード経由の方が優れているかもしれません。

この記事が気に入ったらサポートをしてみませんか?