記事一覧
langchainをollamaで使う (ローカルLLM(chat))
from langchain_community.llms import Ollamafrom langchain.prompts import ( ChatPromptTemplate, MessagesPlaceholder)llm = Ollama(model="llama3")sys_prompt = """あなたは優秀なAIアシスタントです。質問に日本語で答えてください。""
もっとみるcommand R +, chat スクリプト
import cohereco = cohere.Client('***************************') # This is your trial API keychat_history = []sys_prompt = "あなたは優秀なAIアシスタントです。質問に答えてください。"chat_history.append({"role": "SYSTEM", "message"
もっとみるanthropic sonnet (chat)
import anthropicfrom datetime import datetimeapi_key = "sk-,,,"sys_content = f"""あなたは優秀なAIアシスタントです。質問にこたえてください。現在時刻は{datetime.now()}です。"""client = anthropic.Anthropic( # defaults to os.environ.get(
もっとみるMojo(サイトの和訳)変数
2024/03/02時点でのMojoのサイトの導入が終わった後のテキストの和訳です。
変数
変数とは、値またはオブジェクトを保持する名前です。
Mojoの変数はすべて変更可能です。(実行時に変更できない定数値を定義したい場合は、エイリアスキーワードを参照してください)。
メモ
Mojo は以前、不変変数を宣言する let キーワードをサポートしていました。これは、言語を簡素化するためと、
別
楽天レシピ、x chatgpt。(メンテ)
import jsonimport osimport requestsimport timeimport pandas as pdfrom pprint import pprintimport openai# APIキーの設定openai_key = os.environ.get("OPENAI_API_KEY")# 引数で質問を受けるquestion = input("何が食べたい(レシピなど)
もっとみる