マガジンのカバー画像

LangChain

37
LangChain関係の記事まとめ
運営しているクリエイター

#ChatGPT

Langchain公式 LangSmith Cookbook

LangSmithの実行サンプルにちょうどいい感じの、LangSmithクックブックが公開されていました。今のところサンプルはPythonのStreamlitで実装するチャットアプリだけですが、今後はJS/TSのサンプルなども準備も進めているようです。 チャットアプリのLLM呼び出し部分は、通常のLLMChainと、LangChain expressions.での実装がStreamlitアプリ上で選べるようになっています。きれいで教科書的なコードだと思うので、これを土台に自

Langchain新機能:Fewshotプロンプトの動的生成

入力内容に基づいて適切な回答サンプルを選択して、動的にプロンプトを生成することで、より適切な回答を誘導するチャットモデル用のテンプレート機能のようです。 チャットモデルの挙動をうまく制御するのに使えそうです。 早速、試食してみます。 実行サンプル実行準備:ライブラリのインポート !pip install langchain > /dev/null!pip install openai > /dev/null!pip install chromadb /dev/null!

画像説明するアプリ「ViLT-GPT」でLLMと他のTransferモデルの組み合わせ方を学ぶ

面白そうなサンプルアプリをGitHubで見つけたので遊んでみました。 README.md の日本語訳ViLT-GPTは、会話型AI ChatGPTに「見る」機能を与える革新的なアプリケーションです。OpenAIの言語モデル(LLM)とLangChainをVision-and-Languageモデルと統合することで、このアプリは画像の内容に基づいて質問に答えることができます。これで、画像と対話したり、質問をしたり、有益な回答を得たりすることができます。 とにかく試してみます

LangChainによるCode Interpreterオープンソース実装を試す

先日OpenAIからChatGPTのCode Interpreter が公開されて、その能力の高さと応用範囲の広さから界隈で大騒ぎになっていますね。そのコードインタープリター機能をFunction Callingを利用して、LangChainでオープンソース実装を行う試みも始まったようです。 というわけで、さっそく簡単に試食してみます。なお、技術的な詳細などはLangChainの公式ブログやGitHubリポジトリなどをご参照ください。 概要LangChainエージェント用

OpenAI互換APIサーバーたてて、LangChainで遊ぶ

FastChatがバージョンアップして、LangChainとOpenAI互換のローカルAPIサーバーとの統合方法が詳しめで紹介されていました。 モデルのダウンロードFastChat 初回起動時に自動でモデルがダウンロードされるので、特に何もしなくても大丈夫です。 以前のVicuna-13b-v1.1では、LLaMAから手動でデルタを適用する必要がありましたが、現行のFastChat のバージョンでは、モデル起動時に自動でデルタ適用済みのモデルがダウンロードしてくれるように

LangChainまたまた新機能: OpenAI Multi Functions Agent

中の人がどうなってるのか、にわかに信じられませんが、またまたLangChainの新機能が発表されていました😮 今度の新機能は、「Multi Functions Agent」です。 Agentが1ステップで複数の関数呼び出しをするという機能です。 Tools定義google検索ツール(SerpAPI)を tools に登録します。 llm = ChatOpenAI(temperature=0, model="gpt-3.5-turbo-0613")search = Ser

LangChainのdebugオプション

LangChainのAgentですけど、OpenAI Function calling対応になって、ますます動作が複雑になってますよね。出力オプション verbose=True を有効にしてもイマイチ動作が追いきれない時もあると思います。 そんなときは、langchain.debugオプションを有効にすれば、より詳しい動作を表示させることができます。 import langchainlangchain.debug = True 知っている方は多いと思うのですが、 恥ずか

Langchain新機能: エビデンスの引用付きの解答が得られるQA機能(citation_fuzzy_match_chain)

またまた、Langchainの新機能「citation_fuzzy_match_chain」 が公開されていました。OpenAI APIの 「Function Calling機能」を利用して、回答に加えて裏付けとなるエビデンスを引用で示すことが出来るもののようです。 何はともあれ試食します😊ライブラリなどの準備 !pip install langchain >/dev/null!pip install openai >/dev/null# 環境変数の準備import os

LangChainの新機能:メタデータを保持するTextSplitter

LangChain 0.0.203で実装された、Markdownファイルのヘッダ情報をメタデータとして保持しながらテキスト分割を行う、MarkdownHeaderTextSplitter 機能を試してみました。 1.前準備(Google Colab)# ライブラリーのインストール!pip install langchain!pip install openai!pip install chromadb!pip install tiktoken# 環境変数の準備import

gpt-3.5-turbo-16kで要約文を作成

以前、長めの英語のyoutube動画の音声を文字起こししてから、langchainで要約文を作成することを試みました。 gpt-3.5-turboのコンテキスト長の制限4kのため、あらかじめ適当なサイズにテキストを分割して中間要約したのちに、全体の要約文を生成していましたが、gpt-3.5-turbo-16kが公開され、コンテキスト長が4倍の16k!になったので、ケチケチせず一気にぶっこむ作戦で要約文を作成してみます。 というわけで、Apple WWDC2023の基調講演

2時間のYoutube音声を自動で要約 ~ NVIDIAのCOMPUTEX 2023基調講演

先日のNVIDIAのCOMPUTEX 2023でのジェンスン・ファンさんの基調講演を題材に、Youtube音声の要約課題に再トライしてみました。 音声をダウンロードトータル時間:1時間55分57秒 実行時間:2秒 !yt-dlp -x --audio-format mp3 https://youtu.be/i-wpzS9ZsCs -o nvidia2023.mp3 文字起こし時に長いと、なぜか止まってしまうので適当な時間に分割します。 実行時間:1秒 !ffmpeg

GPT-4に童話を考えてもらう。(CAMEL:ロールプレイング自律協調エージェント)

https://python.langchain.com/en/latest/use_cases/agents/camel_role_playing.html 元の実装: https://github.com/lightaime/camel プロジェクトのウェブサイト: https://www.camel-ai.org/ Arxiv 論文: https://arxiv.org/abs/2303.17760 GPT-4に作家(assistant)と編集者(user)の両方にな

ChatGPT APIを使った、勝手に会議システムMAGI(仮称) CAMEL:ロールプレイング自律協調エージェント(コードあり)

ChatGPT APIとlangchainを使って、自律エージェントによる自動会議システムを作ってみました。適当にテーマを与えたら自然に意見を出し合って論点が整理されていく感じです。 一番下にコードを貼ってますので、みなさん、会議の目的とか会議参加者の性格とか色々変えて遊んでみてください。改良点や面白い実行例などあればコメントもらえると幸いです。😄 会議参加者 MAGI:公平な裁定者(議長役)🤖 MELCHIOR:理性的な科学者😎 BALTHASAR:母性の強い母親🤗

自分で計画をたててから、ネット検索して、問題解決するAIを試す。(BabyAGI)

AutoGPTなど、やばい技術がいろいろ発表されて騒がしいNLP界隈ですが、今回はBabyAGIというのを試してみました。 BabyAGIについて、詳しくはこちら。 今回は、シンプルなLangChainでの実装例を動かしてみました。(以下リンクの記事をGoogleColabに張り付けると動きます)。 # 私はプロンプトに「in Japanese」を書き加えて実行しました。変更箇所をこの記事の一番下に貼ってます。出力はいい感じに日本語になりましたが、入力が日本語だとうまく