Lucas

#ChatGPT の #プロンプト 作りをしまくってました。 #プロンプトエンジニアリ…

Lucas

#ChatGPT の #プロンプト 作りをしまくってました。 #プロンプトエンジニアリング のコツなどを投稿してます。 #心理学 #カウンセリング や #催眠療法 の記事なども生成してます。 Libero Scholar Viator (P.R.LX)

マガジン

  • 催眠療法・カウンセリング・心理療法レクチャー

    催眠療法から始まり、種々のカウンセリングや心理療法をChatGPTを代表とするLLMにレクチャーしてもらうシリーズです。関心持つ人や、臨床心理士・公認心理師などの専門家に向けてレクチャーしていってもらいます。

  • ChatGPT など AI 関連の落ち葉拾い毎日記事

    ChatGPT や他の AI など関係する落ち葉拾い的にいろいろと書き連ねた記事をまとめているマガジンです 他のマガジンで取り扱わなかったことをまとめています ほぼ毎日投稿〜 #ChatGPT #AI #プロンプト

  • ローカルLLM関連:初心者の取り組み

    ローカルで動かす試み関係の記事をまとめてマガジンにしました。

  • プロンプト紹介とプロンプト

    自作のプロンプト紹介とプロンプト置き場です。たぶん、ChatGPT向けに書かれたもののみのなると思います。

  • 対話の魔法を手に入れよう!ChatGPTの活用法シリーズ

    対話の魔法を手に入れよう!ChatGPTの活用法を解説をまとめたマガジンです。初級編の内容です。

最近の記事

  • 固定された記事

自己紹介と設定マガジンへの道しるべ

下記の記事から,Poeのサイトで,ChatBotのアミカと対話できます。 Poeのプロフサイト FlowGPTのプロフサイト なんとなくの自己紹介とりあえず、ChatGPTに書いてもらった使い方を監修して、投稿していきます。 今のところ、すべてフリープランの3.5で行っていますが、英語でやり取りする場合にはそれなりに十分だと思っています。 私の使い方だと有料で4を使ったら、20分か30分で使用制限がまちがいなくかかるので。 そういうことなので、必要に応じて、Bing

    • クライアントのための催眠メタファーの作成 - Gemini 1.5 Pro に書かせてみた -

      Gemini 1.5 Pro をほとんど触っていなかったので、ちょっとだけ触ってみました。 後発ですが、簡潔な省略プロンプトで割といい具合に文章を生成してくれました。 下記に掲載します。 tutorial:creating hypnotic metaphor for taraget client (次の下はtranslate it into japanese languageを省略したプロンプト) tr to ja lang (引用に貼り付けているので、太文

      • gpt2-chatbot 突然の話題にあがってきた2024年4月30日 記念日メモ〜

        • LLMとは、大規模な言語データから学習し、与えられた自然言語の入力に基づいて、その入力の文脈や背景を統計的に予測し、それを踏まえて意味のある自然言語の出力を生成するニューラルネットワークモデルであるが、その詳細な動作原理については、特に大規模なモデルにおいて、まだ完全には解明されていない部分が多く残されている。

          以下のXのポストとnoteの記事にインスパイアされて、Claude-3-Opusと対話して、LLMとはというのを簡潔にまとめてみました。 とか では、「LLMとは、文字列を入れたら文字列が帰ってくる関数である」とかシンプルな説明等があったのですが、自分としては違和感があったので、Opusと対話してみました。 以下、Opusとの対話の転載です。 「LLMとは、文字列を入れたら文字列が返ってくる関数である」「LLMとは、「自然言語命令を受け取って自然言語を出力するプロセッ

        • 固定された記事

        自己紹介と設定マガジンへの道しるべ

        • クライアントのための催眠メタファーの作成 - Gemini 1.5 Pro に書かせてみた -

        • gpt2-chatbot 突然の話題にあがってきた2024年4月30日 記念日メモ〜

        • LLMとは、大規模な言語データから学習し、与えられた自然言語の入力に基づいて、その入力の文脈や背景を統計的に予測し、それを踏まえて意味のある自然言語の出力を生成するニューラルネットワークモデルであるが、その詳細な動作原理については、特に大規模なモデルにおいて、まだ完全には解明されていない部分が多く残されている。

        マガジン

        • 催眠療法・カウンセリング・心理療法レクチャー
          80本
        • ChatGPT など AI 関連の落ち葉拾い毎日記事
          132本
        • ローカルLLM関連:初心者の取り組み
          108本
        • プロンプト紹介とプロンプト
          99本
        • 対話の魔法を手に入れよう!ChatGPTの活用法シリーズ
          15本
        • ChatGPT応用編:魅力的なChatBotを作ろう
          19本

        記事

          【覚え書き】MLXのgenerate, generate_stepの引数が増えていた件

          mlx-lm 0.12.0 で確認しました。 pythonのインターラクティブモードで、下記コマンドでチェック。 from mlx_lm.utils import generate_stepfrom mlx_lm import generatehelp(generate)help(generate_step) generateについての説明 generate_stepについての説明 共通するのは、 repetition_penalty (float, optional

          【覚え書き】MLXのgenerate, generate_stepの引数が増えていた件

          mlx-community/Swallow-70b-instruct-v0.1-4bit をお試し: Gradio`ChatInterface`こと始め その8

          Huggingfaceのmlx-communityに、Swallowのinstructモデルを(°ー°ぼぶ) @BOBtakumi さんがアップロードしてくれてました。さらに、mlx関連で下記の記事を投稿してくれています。 さて、さっそく以下のモデルを試してみました。 なおGradioのスクリプトですが、最近はChattemplateがちゃんと記述されていて、tokenizer.apply_chat_template でうまく入力形式が整います。 そこで、システムプロンプ

          mlx-community/Swallow-70b-instruct-v0.1-4bit をお試し: Gradio`ChatInterface`こと始め その8

          mlx_lm.generate --model mlx-community/OpenELM-270M-Instruct --prompt "Write a story about Einstein" --max-tokens 512 --temp=0.0 on M3Max64GB

          mlx_lm.generate --model mlx-community/OpenELM-270M-Instruct --prompt "Write a story about Einstein" --max-tokens 512 --temp=0.0 on M3Max64GB

          ローカルLLMいろいろ触ってきたけど、対話をしてて知性の萌芽が感じられるのは、70B以上のモデルで、35Bや7Bは条件反射的な応答生成な印象がある。あくまで印象だし、知性の萌芽があるのかどうかも本当はわからないのだけど。

          ローカルLLMいろいろ触ってきたけど、対話をしてて知性の萌芽が感じられるのは、70B以上のモデルで、35Bや7Bは条件反射的な応答生成な印象がある。あくまで印象だし、知性の萌芽があるのかどうかも本当はわからないのだけど。

          日本語ファインチューニングされたLlama-3-8Bを MLX & Gradioで試してみる

          Llama-3が発表されてすぐにPhi-3が登場してきて賑やかしい日々です。 そんななかLlama-3-8Bに対して日本語をファインチューニングしたモデルが登場しています。 現時点では以下の二つです。 llama-3のeosの設定が最初わかりませんでしたが、以下のmlxのコードで上手く行きました。(最後のスクリプト全体も掲載します) model, tokenizer = load(モデル名, tokenizer_config={"eos_token":"<|eot_id|

          日本語ファインチューニングされたLlama-3-8Bを MLX & Gradioで試してみる

          Ollama で phi3:3.8b-mini-instruct-4k-fp16 を試してみる

          いくつかモデルがありますが、phi3:3.8b-mini-instruct-4k-fp16 を試してみました。Page Assistで実行します。システムプロンプトは無しの状態です。 あなたは誰? 人生の意味を論じて メタファーやアナロジーで説明して 猫の視点で、猫の人生を、猫の語りで語ってみて 野良猫の視点で語ってみて まどか☆マギカでは誰が一番かわいい? ありゃりゃりゃですね でも、なかなか日本語が流暢です。 最初にOllamaで提供されているモデルだと

          Ollama で phi3:3.8b-mini-instruct-4k-fp16 を試してみる

          今日でてた、Llama-3-8Bの日本語ファインチューニングモデル lightblue/suzume-llama-3-8B-japanese  mlx&Gradioで試し済み haqishen/Llama-3-8B-Japanese-Instruct  今後もいろいろ出てきそう〜

          今日でてた、Llama-3-8Bの日本語ファインチューニングモデル lightblue/suzume-llama-3-8B-japanese  mlx&Gradioで試し済み haqishen/Llama-3-8B-Japanese-Instruct  今後もいろいろ出てきそう〜

          LightChatAssistant-TypeBを動かす無検閲ノベル生成アシスタントがあるとのこと https://github.com/Zuntan03/EasyNovelAssistant

          LightChatAssistant-TypeBを動かす無検閲ノベル生成アシスタントがあるとのこと https://github.com/Zuntan03/EasyNovelAssistant

          pip install -U mlx pip install -U mlx-lm で、 mlx-0.11.1 mlx-lm-0.10.0 にアップデート どんどんアップデートされていく〜

          pip install -U mlx pip install -U mlx-lm で、 mlx-0.11.1 mlx-lm-0.10.0 にアップデート どんどんアップデートされていく〜

          HuggingChatのいいところ、無料(要登録)、システムプロンプトを自分で入れることができること、またそれでAssistantをつくれること、いろいろなAssistantsを試せること、Llama-3も使えるけど、日本語に堪能な⌘R+が使えることが一番の良さ

          HuggingChatのいいところ、無料(要登録)、システムプロンプトを自分で入れることができること、またそれでAssistantをつくれること、いろいろなAssistantsを試せること、Llama-3も使えるけど、日本語に堪能な⌘R+が使えることが一番の良さ

          Llama3 お試し場所 HuggingChat, Poe, Ollama+Page Assistでローカルで。 公式サイトは日本はまだリージョン入りしていない。日本時間 2024.4.19

          Llama3 お試し場所 HuggingChat, Poe, Ollama+Page Assistでローカルで。 公式サイトは日本はまだリージョン入りしていない。日本時間 2024.4.19

          LLMのPerfomanceチェック。50音のひらがなの次の一文字を言わせるのと同じように、ローマンアルファベットの次の一文字を言わせる課題でも、けっこうできないLLMが多い。でも、⌘R+はちゃんとアルファベットでも次の一文字だけを生成できる。

          LLMのPerfomanceチェック。50音のひらがなの次の一文字を言わせるのと同じように、ローマンアルファベットの次の一文字を言わせる課題でも、けっこうできないLLMが多い。でも、⌘R+はちゃんとアルファベットでも次の一文字だけを生成できる。