マガジンのカバー画像

LangChain

37
LangChain関係の記事まとめ
運営しているクリエイター

#OpenAI

LangChainによるCode Interpreterオープンソース実装を試す

先日OpenAIからChatGPTのCode Interpreter が公開されて、その能力の高さと応用範囲の広さから界隈で大騒ぎになっていますね。そのコードインタープリター機能をFunction Callingを利用して、LangChainでオープンソース実装を行う試みも始まったようです。 というわけで、さっそく簡単に試食してみます。なお、技術的な詳細などはLangChainの公式ブログやGitHubリポジトリなどをご参照ください。 概要LangChainエージェント用

Langchain新機能: ChatModel用 のキャッシュメモリ

LangChain 0.0.213 から、ChatModelにもキャッシュがサポートされています。ChatModel用のキャッシュとしては、InMemory キャッシュと SQLAlchemy キャッシュの2種類がサポートされています。 早速ためしてみます。 InMemoryキャッシュの動作 🌵debugオプションをつけて動きを追ってみます。 import langchainfrom langchain.chat_models import ChatOpenAIlang

FlowiseAI:GUIで手軽にLangChainを使ったAIアプリを作成できる

FlowiseAIはドラッグアンドドロップの軽快なUIで、LangChainJS を使ったAIアプリケーションを手軽に開発できるオープンソースのツールです。その特徴と使い方を簡単に紹介します。🌽 FlowiseAIの概要オープンソースのMITライセンス: 商用利用可 LangchainJSを使用したLLMフローを素早く構築可能 Node Typescript/Javascriptで書かれ、OpenAI はじめとした各種LLM(ローカル動作のggmlモデルも使えます)、各

LangChainのdebugオプション

LangChainのAgentですけど、OpenAI Function calling対応になって、ますます動作が複雑になってますよね。出力オプション verbose=True を有効にしてもイマイチ動作が追いきれない時もあると思います。 そんなときは、langchain.debugオプションを有効にすれば、より詳しい動作を表示させることができます。 import langchainlangchain.debug = True 知っている方は多いと思うのですが、 恥ずか

Langchain新機能: エビデンスの引用付きの解答が得られるQA機能(citation_fuzzy_match_chain)

またまた、Langchainの新機能「citation_fuzzy_match_chain」 が公開されていました。OpenAI APIの 「Function Calling機能」を利用して、回答に加えて裏付けとなるエビデンスを引用で示すことが出来るもののようです。 何はともあれ試食します😊ライブラリなどの準備 !pip install langchain >/dev/null!pip install openai >/dev/null# 環境変数の準備import os

LangChainの新機能:メタデータを保持するTextSplitter

LangChain 0.0.203で実装された、Markdownファイルのヘッダ情報をメタデータとして保持しながらテキスト分割を行う、MarkdownHeaderTextSplitter 機能を試してみました。 1.前準備(Google Colab)# ライブラリーのインストール!pip install langchain!pip install openai!pip install chromadb!pip install tiktoken# 環境変数の準備import

OpenAIのFunction calling機能を活かした、LangChain 「OpenAI Functions Agent」を試す

LangChainから、従来のMRKL Agentのツール選択にOpenAI の 関数呼び出し機能を活用した新たなAgentが公開されていました。 早速試してみます公式サンプルを少しアレンジしながら google colab で試してみます。 インストールほか # ライブラリーのインストール!pip install langchain==0.0.200!pip install openai!pip install google-search-results!pip in

gpt-3.5-turbo-16kで要約文を作成

以前、長めの英語のyoutube動画の音声を文字起こししてから、langchainで要約文を作成することを試みました。 gpt-3.5-turboのコンテキスト長の制限4kのため、あらかじめ適当なサイズにテキストを分割して中間要約したのちに、全体の要約文を生成していましたが、gpt-3.5-turbo-16kが公開され、コンテキスト長が4倍の16k!になったので、ケチケチせず一気にぶっこむ作戦で要約文を作成してみます。 というわけで、Apple WWDC2023の基調講演

埋め込み型のデータベースを使った質問への回答:text-embedding-ada-002チュートリアル

OpenAI-Cookbookで公開されている、大量のテキストを駆使して質問に答えるシステム構築に有利な、埋め込み型検索を用いた質問応答の例題を試してみました。 https://github.com/openai/openai-cookbook/blob/main/examples/Question_answering_using_embeddings.ipynb モデルのファインチューニングは例えると、1週間先の試験のために勉強するようなもので、試験本番になると、モデル

生成エージェントに自律的におしゃべりさせてみる。: 生成エージェントの実装 その2

前回の続きです。 今度は、複数の生成エージェントをつくって、自由に設定したキャラクターでおしゃべりをさせてみます。 各キャラクター設定(吹奏楽団員)person_a = GenerativeAgent(name="クラ吹き", age=18, traits="クラリネット演奏者, 好きな作曲家はモーツアルト, インドア派, 心配性で真面目, 市民吹奏楽団に所属, 好きな食べ物は和食,", st

OpenAI互換APIサーバーを動かしたローカルPCのLLMで LangChain を試す

タイトルが技術用語いっぱいで騒がしい感じですいません。FastChatのバージョンアップで、OpeAI 互換のAPIサーバー機能が追加されてOpenAI SDKからローカルPCで動くLLMを使えるようになったので、早速ためしてみました。 1. APIサーバーの起動FastChatのドキュメントに従ってAPIサーバー類を起動します。 まずはcontroller。 python3 -m fastchat.serve.controller お次はmodel_worker。今回