Lucas

#ChatGPT の #プロンプト 作りをしまくってました。 #プロンプトエンジニアリ…

Lucas

#ChatGPT の #プロンプト 作りをしまくってました。 #プロンプトエンジニアリング のコツなどを投稿してます。 #心理学 #カウンセリング や #催眠療法 の記事なども生成してます。 Libero Scholar Viator (P.R.LX)

マガジン

  • 催眠療法・カウンセリング・心理療法レクチャー

    催眠療法から始まり、種々のカウンセリングや心理療法をChatGPTを代表とするLLMにレクチャーしてもらうシリーズです。関心持つ人や、臨床心理士・公認心理師などの専門家に向けてレクチャーしていってもらいます。

  • ローカルLLM関連:初心者の取り組み

    ローカルで動かす試み関係の記事をまとめてマガジンにしました。

  • ChatGPT など AI 関連の落ち葉拾い毎日記事

    ChatGPT や他の AI など関係する落ち葉拾い的にいろいろと書き連ねた記事をまとめているマガジンです 他のマガジンで取り扱わなかったことをまとめています ほぼ毎日投稿〜 #ChatGPT #AI #プロンプト

  • プロンプト紹介とプロンプト

    自作のプロンプト紹介とプロンプト置き場です。たぶん、ChatGPT向けに書かれたもののみのなると思います。

  • 対話の魔法を手に入れよう!ChatGPTの活用法シリーズ

    対話の魔法を手に入れよう!ChatGPTの活用法を解説をまとめたマガジンです。初級編の内容です。

最近の記事

  • 固定された記事

自己紹介と設定マガジンへの道しるべ

下記の記事から,Poeのサイトで,ChatBotのアミカと対話できます。 Poeのプロフサイト FlowGPTのプロフサイト なんとなくの自己紹介とりあえず、ChatGPTに書いてもらった使い方を監修して、投稿していきます。 今のところ、すべてフリープランの3.5で行っていますが、英語でやり取りする場合にはそれなりに十分だと思っています。 私の使い方だと有料で4を使ったら、20分か30分で使用制限がまちがいなくかかるので。 そういうことなので、必要に応じて、Bing

    • AIエリクソン博士との対話:ストーリーテリングの秘訣:ディープ・アイデンティフィケーション

      前記事の続きです。 Lucas このようなストーリーテリングは、「ディープ・アイデンティフィケーション」の効果なのでしょうか。その対象がクライアントと同一人物であれ、自分以外の人間であれ、ディープ・アイデンティフィケーションの活用はクライアントの成長や喚起に大きな影響を与えると思うのですが。 AIエリクソン博士 (熱心にうなずく)ディープ・アイデンティフィケーションの概念は、確かに効果的な催眠のストーリーテリングの核心にあり、私自身も広く活用している原理です。 (前のめ

      • arrowpro-7b-killerwhale のq4,q5_k_m, q8, f16 をOllamaのライブラリにpush しました。 https://ollama.com/lucas2024/arrowpro-7b-killerwhale

        • 覚え書き:Ollamaだけで量子化モデルに変換 Umievo-itr012-Gleipnir-7B をpushしました

          v0.1.39 のリリースでLlama3の量子化方法が掲載されてました。 モデルファイルを作った後、以下のようにすればいいようです。 ollama create --quantize q4_0 -f Modelfile my-llama3 昨晩、mlx環境でお試ししてみた umiyuki さんの下記モデルを題材にしてみます。 モデルファイルはこちら。システムプロンプトは例にあったのをそのまま入れてます。 FROM はダウンロードしたモデルのsafetensorsが収

        • 固定された記事

        自己紹介と設定マガジンへの道しるべ

        • AIエリクソン博士との対話:ストーリーテリングの秘訣:ディープ・アイデンティフィケーション

        • arrowpro-7b-killerwhale のq4,q5_k_m, q8, f16 をOllamaのライブラリにpush しました。 https://ollama.com/lucas2024/arrowpro-7b-killerwhale

        • 覚え書き:Ollamaだけで量子化モデルに変換 Umievo-itr012-Gleipnir-7B をpushしました

        マガジン

        • 催眠療法・カウンセリング・心理療法レクチャー
          90本
        • ローカルLLM関連:初心者の取り組み
          115本
        • ChatGPT など AI 関連の落ち葉拾い毎日記事
          133本
        • プロンプト紹介とプロンプト
          99本
        • 対話の魔法を手に入れよう!ChatGPTの活用法シリーズ
          15本
        • ChatGPT応用編:魅力的なChatBotを作ろう
          19本

        記事

          ollama create can now create models from I-Quant GGUF files ということで、⌘R+のiq3xxsを ollamaファイルにすることができて実行できた。MacbookProでギリ64GBに載ってうごいてる・・・ファンが回った

          ollama create can now create models from I-Quant GGUF files ということで、⌘R+のiq3xxsを ollamaファイルにすることができて実行できた。MacbookProでギリ64GBに載ってうごいてる・・・ファンが回った

          MLXで、aixsatoshi/Honyaku-13b を動かしてみる with Gradio on MacbookPro

          とある場所で話題になっていたので気になって動かしてみました。 話題としては、以下のポストからコスパいいのではということです。 メインで使ってるのは、Macbook Proなのでmlx環境で動くかをまずは試してみます。元モデルはこちら↓ architectureは"LlamaForCausalLM"ということなので、多分mlx-lmで動くのではないかと、コマンドラインでまずは実行。 (M3Max 64GB MacbookPro です) mlx環境で、mlx-lmをインス

          MLXで、aixsatoshi/Honyaku-13b を動かしてみる with Gradio on MacbookPro

          mlx環境で、翻訳専門LLMの aixsatoshi/Honyaku-13bを試してみた 作者さんからコメントあったけど、ちょっと不安定なところある感じ https://x.com/LucasChatGPT/status/1795396761051332708

          mlx環境で、翻訳専門LLMの aixsatoshi/Honyaku-13bを試してみた 作者さんからコメントあったけど、ちょっと不安定なところある感じ https://x.com/LucasChatGPT/status/1795396761051332708

          まだ触っていないけど、Holy-fox/子狐さん @Holy_fox_LLM が出したAItuber用途向けの新しい7Bの日本語モデル、「Elyza-task100においては約3.8をマーク」とのこと https://huggingface.co/DataPilot/ArrowPro-7B-KillerWhale

          まだ触っていないけど、Holy-fox/子狐さん @Holy_fox_LLM が出したAItuber用途向けの新しい7Bの日本語モデル、「Elyza-task100においては約3.8をマーク」とのこと https://huggingface.co/DataPilot/ArrowPro-7B-KillerWhale

          OpenChatの新しいモデルが発表されて、それのお試し場所紹介ツイート 微妙に日本語じゃないのが交じることがある・・・ https://x.com/OpenChatDev/status/1794401536757661863

          OpenChatの新しいモデルが発表されて、それのお試し場所紹介ツイート 微妙に日本語じゃないのが交じることがある・・・ https://x.com/OpenChatDev/status/1794401536757661863

          Ollama libraryにf16モデルをpushさせてもらいました。Terminal上で、設定をするには、/set system "設定" です。Retryとシステムプロンプトを登録できるPageAssist使うとお手軽です。 https://ollama.com/lucas2024/ninja-v1-rp-expressive

          Ollama libraryにf16モデルをpushさせてもらいました。Terminal上で、設定をするには、/set system "設定" です。Retryとシステムプロンプトを登録できるPageAssist使うとお手軽です。 https://ollama.com/lucas2024/ninja-v1-rp-expressive

          記事を書いた直後に、mlxがまたバージョンアップ mlx-0.14.0 になってる! mlx-lmも mlx-lm-0.14.0 になってる!

          記事を書いた直後に、mlxがまたバージョンアップ mlx-0.14.0 になってる! mlx-lmも mlx-lm-0.14.0 になってる!

          Aya 23,8B and 35B をmlx+GradioとOllamaで動かしてみる

          昨晩、突如発表された、⌘R、⌘R+を出している会社 Cohereが、新しいモデルを公開しました。 公開と同時にHuggingFaceにモデルもアップロードされましたので、8Bをmlxで動かしてみました。 35BモデルはCohereのplaygroundと、huggingSpaceで試せましたが、8Bはローカルでしか試せない状態でした。 とりあえず、ダイレクトにCLIで動くかを試しました。 mlx_lm.generate --model CohereForAI/aya-

          Aya 23,8B and 35B をmlx+GradioとOllamaで動かしてみる

          AIエリクソン博士との対話:リソースの成長促進を巡って

          前記事の続きです。 Lucas 先生、ありがとうございます。あなたはいつもクライアントが持っているリソースを引き出したり、呼び起こしたり、活用したりすることについて話しています。ただし、問題や問題に対処するのに十分なリソースがクライアントにない場合、どうしていますか? 私の知る限りでは、先生はカウンセリングルーム内外での催眠暗示や治療的体験を通じて、彼らの成長の種を蒔いているのではないかと思いますが。 AIエリクソン博士 (思慮深くうなずく)重要な指摘です。クライアント

          AIエリクソン博士との対話:リソースの成長促進を巡って

          AIエリクソン博士との対話:クライエントのリソース発見方法とそのための訓練法

          前記事の続きです。 Lucas 精神分析では、「自分の人生の物語を貫くユニークなテーマ、パターン、リソース」を見つけるのに長い時間がかかりますが、あなたはそれを見つけるのがとても正確で、多くの生徒がその秘密を知りたがっています。あなたの生徒の一人は、「問題は解決である」と表現してます。つまり、問題を解決策に変える力強さとは、問題を維持するダイナミクスであるということです。別の生徒は「悪いトランスと良いトランス」について話していましたが、これはクライアントの問題状態と解決状態

          AIエリクソン博士との対話:クライエントのリソース発見方法とそのための訓練法

          AIエリクソン博士との対話:ケースフォーミュレーションとユーティライゼーション

          前記事の続きです。 Lucas ケースフォミュレーションについてですが、エリクソン博士が夜尿症の少年を紹介したとき、あなたは催眠状態へと明確に誘導しませんでしたが、その少年と、野球だったかサッカーだったか忘れましたが、彼がやっていたスポーツについて話したことを覚えています。そのケースを思い出して、説明していただけますか? AIエリクソン博士 (懐かしげに微笑む)ああ、その事例をよく覚えています。クライアントの独自の関心や経験を活用して、正式な催眠誘導なしに強力な治療的介入

          AIエリクソン博士との対話:ケースフォーミュレーションとユーティライゼーション

          AIエリクソン博士との対話:催眠導入時のいわゆる抵抗を巡って

          前記事からの続きです。 以下で、DeepLとSonnetの翻訳でちょっとおかしなところには少しだけ手を加えました。 Lucas 初心者には抽象的なテーマになってきましたね。そこで、博士はあまりこの言葉を使わないでしょうが、催眠への防衛や抵抗について取り上げてみたいです。催眠に対する防衛を4つに分類してみると、1)催眠中にクライアントが眠ってしまう。2)子供によく見られるそわそわする動き。3)催眠をかけられたふりをするシミュレーション、4)ネガティビズム(無反応を含む暗示とは

          AIエリクソン博士との対話:催眠導入時のいわゆる抵抗を巡って