見出し画像

LangChainを試してみる②

テンプレートとChainを試してみた

import langchain
from langchain.chains import LLMChain
from langchain.chat_models import ChatOpenAI
from langchain.prompts import PromptTemplate

# langchainのログ出力を有効化
langchain.verbose = True

try:
    # OpenAIのChatGPTモデルを初期化(ここではgpt-3.5-turboを使用)
    # APIキーは環境変数または直接指定で設定してください
    chat = ChatOpenAI(model_name="gpt-3.5-turbo", temperature=0)

    # プロンプトテンプレートを定義
    template = """
    次のコマンドの概要を説明してください。

    コマンド: {command}
    """

    # プロンプトテンプレートを使用してPromptオブジェクトを作成
    prompt = PromptTemplate(
        input_variables=["command"],  # 入力変数のリスト
        template=template,            # 使用するテンプレート
    )

    # LLMChain(Large Language Model Chain)を作成
    chain = LLMChain(llm=chat, prompt=prompt)

    # コマンド'ls'に対する説明を生成
    result = chain.run("ls")

    # 結果を出力
    print(result)

except Exception as e:
    # エラーが発生した場合、エラーメッセージを出力
    print(f"エラーが発生しました: {e}")


この記事が気に入ったらサポートをしてみませんか?