LangChainを試してみる②
テンプレートとChainを試してみた
import langchain
from langchain.chains import LLMChain
from langchain.chat_models import ChatOpenAI
from langchain.prompts import PromptTemplate
# langchainのログ出力を有効化
langchain.verbose = True
try:
# OpenAIのChatGPTモデルを初期化(ここではgpt-3.5-turboを使用)
# APIキーは環境変数または直接指定で設定してください
chat = ChatOpenAI(model_name="gpt-3.5-turbo", temperature=0)
# プロンプトテンプレートを定義
template = """
次のコマンドの概要を説明してください。
コマンド: {command}
"""
# プロンプトテンプレートを使用してPromptオブジェクトを作成
prompt = PromptTemplate(
input_variables=["command"], # 入力変数のリスト
template=template, # 使用するテンプレート
)
# LLMChain(Large Language Model Chain)を作成
chain = LLMChain(llm=chat, prompt=prompt)
# コマンド'ls'に対する説明を生成
result = chain.run("ls")
# 結果を出力
print(result)
except Exception as e:
# エラーが発生した場合、エラーメッセージを出力
print(f"エラーが発生しました: {e}")
この記事が気に入ったらサポートをしてみませんか?