マガジンのカバー画像

LangChain

37
LangChain関係の記事まとめ
運営しているクリエイター

#AIの活かし方

FlowiseAI:GUIで手軽にLangChainを使ったAIアプリを作成できる

FlowiseAIはドラッグアンドドロップの軽快なUIで、LangChainJS を使ったAIアプリケーションを手軽に開発できるオープンソースのツールです。その特徴と使い方を簡単に紹介します。🌽 FlowiseAIの概要オープンソースのMITライセンス: 商用利用可 LangchainJSを使用したLLMフローを素早く構築可能 Node Typescript/Javascriptで書かれ、OpenAI はじめとした各種LLM(ローカル動作のggmlモデルも使えます)、各

Langchain新機能: エビデンスの引用付きの解答が得られるQA機能(citation_fuzzy_match_chain)

またまた、Langchainの新機能「citation_fuzzy_match_chain」 が公開されていました。OpenAI APIの 「Function Calling機能」を利用して、回答に加えて裏付けとなるエビデンスを引用で示すことが出来るもののようです。 何はともあれ試食します😊ライブラリなどの準備 !pip install langchain >/dev/null!pip install openai >/dev/null# 環境変数の準備import os

LangChainの新機能:メタデータを保持するTextSplitter

LangChain 0.0.203で実装された、Markdownファイルのヘッダ情報をメタデータとして保持しながらテキスト分割を行う、MarkdownHeaderTextSplitter 機能を試してみました。 1.前準備(Google Colab)# ライブラリーのインストール!pip install langchain!pip install openai!pip install chromadb!pip install tiktoken# 環境変数の準備import

OpenAIのFunction calling機能を活かした、LangChain 「OpenAI Functions Agent」を試す

LangChainから、従来のMRKL Agentのツール選択にOpenAI の 関数呼び出し機能を活用した新たなAgentが公開されていました。 早速試してみます公式サンプルを少しアレンジしながら google colab で試してみます。 インストールほか # ライブラリーのインストール!pip install langchain==0.0.200!pip install openai!pip install google-search-results!pip in

gpt-3.5-turbo-16kで要約文を作成

以前、長めの英語のyoutube動画の音声を文字起こししてから、langchainで要約文を作成することを試みました。 gpt-3.5-turboのコンテキスト長の制限4kのため、あらかじめ適当なサイズにテキストを分割して中間要約したのちに、全体の要約文を生成していましたが、gpt-3.5-turbo-16kが公開され、コンテキスト長が4倍の16k!になったので、ケチケチせず一気にぶっこむ作戦で要約文を作成してみます。 というわけで、Apple WWDC2023の基調講演

Koeiromap-freeとlangchainであそぶ

先日、rinna社から音声とフェイスモーションの生成AIサービスKoemotionが発表されていました。悲しいかなフェイスモーションを試すスキルが自分には無いので、Koemotionの音声合成機能Koeiromapの単体と、langchainを組み合わせて遊んでみました。 とにかくkoeiromapを試食!KOEIRO_API_KEYに各自取得したKeyを設定してください。 import requestsimport jsondef koeiro_free(text="こ

埋め込み型のデータベースを使った質問への回答:text-embedding-ada-002チュートリアル

OpenAI-Cookbookで公開されている、大量のテキストを駆使して質問に答えるシステム構築に有利な、埋め込み型検索を用いた質問応答の例題を試してみました。 https://github.com/openai/openai-cookbook/blob/main/examples/Question_answering_using_embeddings.ipynb モデルのファインチューニングは例えると、1週間先の試験のために勉強するようなもので、試験本番になると、モデル

rinna社からLangChainのAgent動作に特化したvicuna-13bモデル

rinna社から、先日の日本語特化のGPT言語モデルの公開に引き続き、今度はLangChainをサポートするvicuna-13bモデルが公開されました。 日本語がとても流暢な、rinna/japanese-gpt-neox-3.6b-instruction-ppo と、論理的な推論に強いモデルを組み合わせることを提案してくれているのだと思います。痒い所に手が届くというか…。流石です。 というわけで、早速ためしてみます!😊 1.モデルの概要vicuna-13b-delta

2時間のYoutube音声を自動で要約 ~ NVIDIAのCOMPUTEX 2023基調講演

先日のNVIDIAのCOMPUTEX 2023でのジェンスン・ファンさんの基調講演を題材に、Youtube音声の要約課題に再トライしてみました。 音声をダウンロードトータル時間:1時間55分57秒 実行時間:2秒 !yt-dlp -x --audio-format mp3 https://youtu.be/i-wpzS9ZsCs -o nvidia2023.mp3 文字起こし時に長いと、なぜか止まってしまうので適当な時間に分割します。 実行時間:1秒 !ffmpeg

GPT-4に童話を考えてもらう。(CAMEL:ロールプレイング自律協調エージェント)

https://python.langchain.com/en/latest/use_cases/agents/camel_role_playing.html 元の実装: https://github.com/lightaime/camel プロジェクトのウェブサイト: https://www.camel-ai.org/ Arxiv 論文: https://arxiv.org/abs/2303.17760 GPT-4に作家(assistant)と編集者(user)の両方にな

自分で計画をたててから、ネット検索して、問題解決するAIを試す。(BabyAGI)

AutoGPTなど、やばい技術がいろいろ発表されて騒がしいNLP界隈ですが、今回はBabyAGIというのを試してみました。 BabyAGIについて、詳しくはこちら。 今回は、シンプルなLangChainでの実装例を動かしてみました。(以下リンクの記事をGoogleColabに張り付けると動きます)。 # 私はプロンプトに「in Japanese」を書き加えて実行しました。変更箇所をこの記事の一番下に貼ってます。出力はいい感じに日本語になりましたが、入力が日本語だとうまく

LangChainによるGenerative Agents: 生成エージェントの実装 その1

LangChain0.0.42で実装された、TimeWeightedVectorStoreRetrieverのチュートリアルの前半部分をgoogl colabで試してみました。行動を性格に反映することで、より生き生きとした会話が楽しめるようになっています。設定やストーリーを色々かえて試してみると楽しそうです。お試しあれ # ライブラリーのインストール!pip install openai > /dev/null!pip install langchain > /dev/nu

LangChainのBabyAGIクラスを試してみる 〜朝食について聞いたら、自家製梅干しの製法まで教えてくれました😍

langchain.experimental から BabyAGIクラスを手軽にインポートできるようなったとのアナウンスがあったので、さっそく試してみました。 データストアの前準備などは必要ですが、実質はインスタンス作成部分の3行ほどをコーディングするだけですぐ使えるという…。いやはや、お手軽すぎでしょ。 BabyAGIクラスの実装部分のコードはまだ読み込んでいないので、詳しいことはまだ理解していませんが、おそらくプロンプトのフォーマットの部分を好みに書き換えれば、色々応用

自立エージェントによるTRPGを観戦する(CAMEL:ロールプレイ型自律協調エージェント)

こんばんは。LangChainのドキュメントページに新たなCAMEL(Communicative Agents for “Mind” Exploration of Large Scale Language Model Society ロールプレイ型自律協調エージェント)の例題が公開されたので、それを少し改造して試してみました。 この例題は、2つのエージェントにプレイヤーとゲームマスターの役をさせて、テーブルトークRPGを模擬してもらうものです。そのまま実行しても面白くないの