Lucas

#ChatGPT の #プロンプト 作りをしまくってました。 #プロンプトエンジニアリ…

Lucas

#ChatGPT の #プロンプト 作りをしまくってました。 #プロンプトエンジニアリング のコツなどを投稿してます。 #心理学 #カウンセリング や #催眠療法 の記事なども生成してます。 Libero Scholar Viator (P.R.LX)

マガジン

  • プロンプト紹介とプロンプト

    自作のプロンプト紹介とプロンプト置き場です。たぶん、ChatGPT向けに書かれたもののみのなると思います。

  • プロンプト生成プロンプトのまとめ

    自作のプロンプト生成プロンプトの記事をまとめておこうと思います。

  • ローカルLLM関連:初心者の取り組み

    ローカルで動かす試み関係の記事をまとめてマガジンにしました。

  • ChatGPT など AI 関連の落ち葉拾い毎日記事

    ChatGPT や他の AI など関係する落ち葉拾い的にいろいろと書き連ねた記事をまとめているマガジンです 他のマガジンで取り扱わなかったことをまとめています ほぼ毎日投稿〜 #ChatGPT #AI #プロンプト

  • 催眠療法・カウンセリング・心理療法レクチャー

    催眠療法から始まり、種々のカウンセリングや心理療法をChatGPTを代表とするLLMにレクチャーしてもらうシリーズです。関心持つ人や、臨床心理士・公認心理師などの専門家に向けてレクチャーしていってもらいます。

最近の記事

  • 固定された記事

自己紹介と設定マガジンへの道しるべ

下記の記事から,Poeのサイトで,ChatBotのアミカと対話できます。 Poeのプロフサイト FlowGPTのプロフサイト なんとなくの自己紹介とりあえず、ChatGPTに書いてもらった使い方を監修して、投稿していきます。 今のところ、すべてフリープランの3.5で行っていますが、英語でやり取りする場合にはそれなりに十分だと思っています。 私の使い方だと有料で4を使ったら、20分か30分で使用制限がまちがいなくかかるので。 そういうことなので、必要に応じて、Bing

    • AI錬金術・魔法・魔法師プロンプトの作成記録

      前記事の対話をしてくれるプロンプトを作った方法とプロンプトそのものについての紹介です。 Poe上のSonnet3.5で作りました。 太字は私の言葉です。(注:これを作った時、ホネホネプロンプトが頭にあったので、skeltonという言葉を使ってみたので、別な言い回しでもいいと思います。) あなたは魔法AIです。ユーザーの求める回答を出す前に、ユーザーの求めを【火・水・風・土・光・闇」の6元素に分解して、求めのskeltonを明らかにします。そのうえで、回答を出すための、6元素

      • AI錬金術・魔法・魔術師との対話:分解と生成

        突然ですが、魔法が好きです。フローレンが好きです。鋼錬もお気に入りです。なろう小説の異世界ものもよく読んでます。 ということで、ふと思い立って、分解と生成に基づいた回答をするプロンプトをつくってみました。 紹介文(日本語訳) 魔法の AI チャットボットのご紹介: 魅惑的な知恵への入り口 革新的なマジカル AI チャットボットを使用して、人工知能が神秘的な力と出会う領域に足を踏み入れましょう。この並外れたデジタル コンパニオンは従来の AI の境界を超え、問題解決と探索

        • MacでFLUXを試してみた:DiffusionKit

          Xで流れてきたPost通りにやったら、画像が生成されました。 Image Gnereationはほとんどまったく触れていないのですが、FLUXが今話題だというのはXを見てて知っています。 そんな中、下記のPost とりあえず、よくわからないけど、pip でdiffusionkitをインストールしたら、コマンドラインを放り込んだら画像生成できそうです。 ちなみにDiffusionKitのgithubはこちら。 いろいろ書いてありますが、XのPostだと、pip instal

        • 固定された記事

        自己紹介と設定マガジンへの道しるべ

        マガジン

        • プロンプト生成プロンプトのまとめ
          19本
        • プロンプト紹介とプロンプト
          108本
        • ローカルLLM関連:初心者の取り組み
          131本
        • ChatGPT など AI 関連の落ち葉拾い毎日記事
          139本
        • 催眠療法・カウンセリング・心理療法レクチャー
          96本
        • 対話の魔法を手に入れよう!ChatGPTの活用法シリーズ
          15本

        記事

          試し記録:MacとWindowsのOllama生成スピード比較

          mistral-nemo:12b-instruct-2407-fp16. 7bb1e26a5ed5 • 25GB (fp16で動かせそうなのは最大でこれ、Ayaなどの35Bだと64GBよりも大きなファイルサイズで断念) ollama version is 0.3.3 で比較 おおよそ 15 tokens/s おおよそ 10 tokens/s GPU からあふれ出てる感じは下記のスクショ参考に。 #AI #AIとやってみた #やってみた #ローカルLLM #Ollama

          試し記録:MacとWindowsのOllama生成スピード比較

          脳機能を模したLLMsのシステムをSonnet3.5に考えてもらった

          ちょっと思いついたので、以下のプロンプトを放り込んだら、それなりに面白いなぁと思ったものが生成されたので書き記しておきます。 プロンプト はい、承知しました。大脳の機能野からLLMsの連結、そしてフィードバックループの実装可能性まで、段階的に詳しく検討していきます。 ステップ1: 大脳の機能野の説明 大脳には様々な機能野があり、それぞれが特定の役割を担っています。主な機能野には以下のようなものがあります: 運動野: 随意運動の制御 体性感覚野: 触覚、圧覚、温度感

          脳機能を模したLLMsのシステムをSonnet3.5に考えてもらった

          試してみた:多層的プロンプト生成システム

          以下の廻ってきたPostのプロンプトを試してみました。 プロンプト本体はこちら 最終ゴールは、「人生の意味を考察したエッセイ本文そのもの」として実行しました。Postのゴール例は「エンジニアロードマップの作成」でした。 # 多層的プロンプト生成システムこの系統的なプロンプト生成システムは、ユーザーが指定した{ゴール}に基づいて、P_{n-2}からP_{n+2}までの5つの段階的なプロンプトを生成します。各段階のプロンプトは、次の段階のプロンプトを生成するための入力として機

          試してみた:多層的プロンプト生成システム

          Gradioの`ChatInterface`こと始め その8: mlx_lmのstream_generateを使うスクリプト

          MLXやmlx-lmがどんどんバージョンアップしてきて、mlx_lmのなかにgenerate_stepや、stream_generateが組み込まれてきました。 参考リンク   それに合わせて、stream_generateを採用したスクリプトへと変更してみました(こちらのリンクも参考)。ただmlxフォーマットのモデルでないとスムーズに動かない印象です。 そのあたりは各自確認してください。 import gradio as grfrom mlx_lm import loa

          Gradioの`ChatInterface`こと始め その8: mlx_lmのstream_generateを使うスクリプト

          覚え書き:Hugging face 上でモデルの量子化が実行できそうです

          昨日、Ollamaの説明を下記の見てました。 リンク先のGuideをさらに見てみたら、こんなノートがありました。 なんとHugging face 上で量子化ができるとのことです! Create your own GGUF Quants, blazingly fast ⚡! ログインして許可を与えると、こんなページです。 簡単な英語ですが、訳すると「このスペースは HF リポジトリを入力として受け取り、それをクオンタイズし、選択したクオントを含むパブリック リポジトリを

          覚え書き:Hugging face 上でモデルの量子化が実行できそうです

          賢くなる複眼的思考のシステムプロンプトをつくるメタプロンプトの実行例と実際

          上をつくったあと、しばらくして、ふと、複眼的思考という昔の本のフレーズを思い出したので、複眼的思考をするシステムプロンプトを作ろうと思った実行例の備忘録です。 上の記事でおすすめしたメタプロンプト作成プロンプトでつくってみました。複眼的思考は英語では、Multifaceted/Multidimensional thinking らしいので、そのまま[ ]内に放り込んで実行。 Create a meta-prompt that generates system prompt

          賢くなる複眼的思考のシステムプロンプトをつくるメタプロンプトの実行例と実際

          Poeに「話の途中で色んな人を@メンションで呼び出してみようプロンプト」を組み込んだBotを設定してみた。systemで設定していないPersonaや、固有人物名でも呼び出して、その人の視点から語ってくれる  https://poe.com/MultiView

          Poeに「話の途中で色んな人を@メンションで呼び出してみようプロンプト」を組み込んだBotを設定してみた。systemで設定していないPersonaや、固有人物名でも呼び出して、その人の視点から語ってくれる  https://poe.com/MultiView

          レポート:Athene-70Bを試してみた& Ollamaで動かしてみた

          昨晩流れてきたポスト Athene-70Bがとってもいい性能でリリースされたというニュースでした。 続くポスト で https://chat.lmsys.org/ で動かすことができるということで触ってみたら、日本語もすぐに問題なくでてきて、元のLlama-3よりも良さそうな印象でした。 そこでローカルで動かすためにOllamaを使ってみました。 手順は下記のとおり。 モデルをダウンロード、今回は量子化された Q4_K_Mで。 huggingface-cli dow

          レポート:Athene-70Bを試してみた& Ollamaで動かしてみた

          プロンプト生成プロンプトの作り方:Create a meta-prompt that generates system prompts for [specific purpose or domain].

          プロンプト生成プロンプトシリーズに多種のプロンプトの記事を書いてきました。その中でも、作り方にふれた記事もありますが、最近のLLMsも性能があがっているなか最近ちょっと試したことを書き記しておきます。 GPTシリーズやClaudeシリーズ、あるいはローカルLLMsでも同じプロンプトでは違いがありますので、自分でいろいろと試してください。 結論:下記の単語のみ覚えて、適当に組み合わせると大抵のものは簡単にできる。 system prompt generate, creat

          プロンプト生成プロンプトの作り方:Create a meta-prompt that generates system prompts for [specific purpose or domain].

          OllamaのLibraryに、ezo-common-9b-gemma-2-it:q8_0 をpushしました。 よかったら使ってください。 ollama run lucas2024/ezo-common-9b-gemma-2-it:q8_0

          OllamaのLibraryに、ezo-common-9b-gemma-2-it:q8_0 をpushしました。 よかったら使ってください。 ollama run lucas2024/ezo-common-9b-gemma-2-it:q8_0

          Automated Ultimate Prompt Enhancer: Prompt Enhancer Agent用のプロンプト

          前日の記事の発想に基づいて、 Automated Ultimate Prompt Enhancer というプロンプトをSonnet3.5と相談して作りました。 元にしたのは、下記記事のWild Prompt Generatorです。これにした理由はとりあえずシンプルでいいかなと思っただけで、格段の理由はありません。 作成された最終的な"Automated Ultimate Prompt Enhancer"プロンプトはこちら。 **Automated Ultimate Pr

          Automated Ultimate Prompt Enhancer: Prompt Enhancer Agent用のプロンプト

          Mixture of Agentsの話から思いついた前処理段階としてのPrompt Enhancer Agentの追加

          上の記事内容を、ローカルで実行したという記事が下記としてでています。 やってることは、下記の図で分かると思います。 元記事は、まったく読み込んでいませんが、プロンプトに対して複数のLLMの回答を生成させて、最後にAggeregateする形で別のLLMに最終回答を生成させるという流れです。 いちおうScriptの中にAggreagator Promptの全文を見つけました。 さて、統合するようなLLMで生成処理をするなら、さまざまなLLMにダイレクトにプロンプトをほうり

          Mixture of Agentsの話から思いついた前処理段階としてのPrompt Enhancer Agentの追加