マガジンのカバー画像

LangChain

37
LangChain関係の記事まとめ
運営しているクリエイター

記事一覧

LangChainの新機能 🕸️LangGraphを試す

LangGraphというLangChainの新機能が公開されていたので、google colab上でチュートリアルをざっと試してみました。 ライブラリーのインストールなど!pip install -U langchain langgraph langchain_openai langchainhub tavily-python from langchain import hubfrom langchain.agents import create_openai_funct

Langchain公式 LangSmith Cookbook

LangSmithの実行サンプルにちょうどいい感じの、LangSmithクックブックが公開されていました。今のところサンプルはPythonのStreamlitで実装するチャットアプリだけですが、今後はJS/TSのサンプルなども準備も進めているようです。 チャットアプリのLLM呼び出し部分は、通常のLLMChainと、LangChain expressions.での実装がStreamlitアプリ上で選べるようになっています。きれいで教科書的なコードだと思うので、これを土台に自

Langchain新機能:Fewshotプロンプトの動的生成

入力内容に基づいて適切な回答サンプルを選択して、動的にプロンプトを生成することで、より適切な回答を誘導するチャットモデル用のテンプレート機能のようです。 チャットモデルの挙動をうまく制御するのに使えそうです。 早速、試食してみます。 実行サンプル実行準備:ライブラリのインポート !pip install langchain > /dev/null!pip install openai > /dev/null!pip install chromadb /dev/null!

画像説明するアプリ「ViLT-GPT」でLLMと他のTransferモデルの組み合わせ方を学ぶ

面白そうなサンプルアプリをGitHubで見つけたので遊んでみました。 README.md の日本語訳ViLT-GPTは、会話型AI ChatGPTに「見る」機能を与える革新的なアプリケーションです。OpenAIの言語モデル(LLM)とLangChainをVision-and-Languageモデルと統合することで、このアプリは画像の内容に基づいて質問に答えることができます。これで、画像と対話したり、質問をしたり、有益な回答を得たりすることができます。 とにかく試してみます

LangChainによるCode Interpreterオープンソース実装を試す

先日OpenAIからChatGPTのCode Interpreter が公開されて、その能力の高さと応用範囲の広さから界隈で大騒ぎになっていますね。そのコードインタープリター機能をFunction Callingを利用して、LangChainでオープンソース実装を行う試みも始まったようです。 というわけで、さっそく簡単に試食してみます。なお、技術的な詳細などはLangChainの公式ブログやGitHubリポジトリなどをご参照ください。 概要LangChainエージェント用

DeepLearning.AIのLangChainの無料コースをやってみた

ディープラーニング分野の超有名人で、オンライン教育でも有名なAndrew Ngさんのサイト「DeepLearning.AI」で、LangChainの作者のHarrison Chaseさん本人が直々にLangChainの概要を解説してくれる無料のショートコース「LangChain for LLM Application Development」を受講してみました。 結論:LangChainを最速で使えるようになりたい方にオススメします💪Harrison ChaseさんとAnd

Langchain新機能: ChatModel用 のキャッシュメモリ

LangChain 0.0.213 から、ChatModelにもキャッシュがサポートされています。ChatModel用のキャッシュとしては、InMemory キャッシュと SQLAlchemy キャッシュの2種類がサポートされています。 早速ためしてみます。 InMemoryキャッシュの動作 🌵debugオプションをつけて動きを追ってみます。 import langchainfrom langchain.chat_models import ChatOpenAIlang

FlowiseAI:GUIで手軽にLangChainを使ったAIアプリを作成できる

FlowiseAIはドラッグアンドドロップの軽快なUIで、LangChainJS を使ったAIアプリケーションを手軽に開発できるオープンソースのツールです。その特徴と使い方を簡単に紹介します。🌽 FlowiseAIの概要オープンソースのMITライセンス: 商用利用可 LangchainJSを使用したLLMフローを素早く構築可能 Node Typescript/Javascriptで書かれ、OpenAI はじめとした各種LLM(ローカル動作のggmlモデルも使えます)、各

OpenAI互換APIサーバーたてて、LangChainで遊ぶ

FastChatがバージョンアップして、LangChainとOpenAI互換のローカルAPIサーバーとの統合方法が詳しめで紹介されていました。 モデルのダウンロードFastChat 初回起動時に自動でモデルがダウンロードされるので、特に何もしなくても大丈夫です。 以前のVicuna-13b-v1.1では、LLaMAから手動でデルタを適用する必要がありましたが、現行のFastChat のバージョンでは、モデル起動時に自動でデルタ適用済みのモデルがダウンロードしてくれるように

LangChainまたまた新機能: OpenAI Multi Functions Agent

中の人がどうなってるのか、にわかに信じられませんが、またまたLangChainの新機能が発表されていました😮 今度の新機能は、「Multi Functions Agent」です。 Agentが1ステップで複数の関数呼び出しをするという機能です。 Tools定義google検索ツール(SerpAPI)を tools に登録します。 llm = ChatOpenAI(temperature=0, model="gpt-3.5-turbo-0613")search = Ser

LangChainのdebugオプション

LangChainのAgentですけど、OpenAI Function calling対応になって、ますます動作が複雑になってますよね。出力オプション verbose=True を有効にしてもイマイチ動作が追いきれない時もあると思います。 そんなときは、langchain.debugオプションを有効にすれば、より詳しい動作を表示させることができます。 import langchainlangchain.debug = True 知っている方は多いと思うのですが、 恥ずか

Langchain新機能: エビデンスの引用付きの解答が得られるQA機能(citation_fuzzy_match_chain)

またまた、Langchainの新機能「citation_fuzzy_match_chain」 が公開されていました。OpenAI APIの 「Function Calling機能」を利用して、回答に加えて裏付けとなるエビデンスを引用で示すことが出来るもののようです。 何はともあれ試食します😊ライブラリなどの準備 !pip install langchain >/dev/null!pip install openai >/dev/null# 環境変数の準備import os

LangChainの新機能:メタデータを保持するTextSplitter

LangChain 0.0.203で実装された、Markdownファイルのヘッダ情報をメタデータとして保持しながらテキスト分割を行う、MarkdownHeaderTextSplitter 機能を試してみました。 1.前準備(Google Colab)# ライブラリーのインストール!pip install langchain!pip install openai!pip install chromadb!pip install tiktoken# 環境変数の準備import

OpenAIのFunction calling機能を活かした、LangChainの新機能Taggingを試す

Tagging機能OpenAIのFunction calling機能を活かした、LangChainのTagging(tags)機能を試してみます。 pydanticの機能を使ってスキーマを設定して、テキストにタグ付けできる機能のようです。 さっそく試してみますネタは青空文庫の「走れメロス」の読み上げをシュッと試してみようと思います。読み上げの実装はbbzさんの記事を参考にさせてもらいました。 ファイル読み込み # ファイルを読み込み、テキストを取得します。with o