12月13日にGoogleのGemini ProがAPIで使えるようになりましたので試してみました。
ニュースリリース
環境設定
import os
os.environ["GOOGLE_API_KEY"] = 'GOOGLE_API_KEY'
APIキーはGoogle AI Studioから取得できます。
テキスト入力からテキストを生成する
model = genai.GenerativeModel('gemini-pro')
response = model.generate_content("google gemini proの特徴とAPIのコストを出してください。")
to_markdown(response.text)
結果
画像とテキスト入力からテキストを生成する
model = genai.GenerativeModel('gemini-pro-vision')
response = model.generate_content(["この画像を説明してください。", img], stream=True)
response.resolve()
to_markdown(response.text)
結果
LangChainからGeminiを使う
from langchain_google_genai import ChatGoogleGenerativeAI
llm = ChatGoogleGenerativeAI(model="gemini-pro")
result = llm.invoke("google gemini proの特徴とAPIのコストを出してください。")
print(result.content)
結果
from langchain_core.messages import HumanMessage
from langchain_google_genai import ChatGoogleGenerativeAI
llm = ChatGoogleGenerativeAI(model="gemini-pro-vision")
message = HumanMessage(
content=[
{
"type": "text",
"text": "この画像を説明してください。",
},
{"type": "image_url", "image_url": "image.jpg"},
]
)
result = llm.invoke([message])
print(result.content)
結果
APIの利用料
参考までに他のAPI利用料と比較
GPT-4 Turboの利用料
GPT-3.5 Turboの利用料
Anthropic Claudeの利用用
LLM tokenizer
すべてのソースコード(Google Colabのリンク)
おまけ(OPENAI GPTとの性能比較)
こちらの記事が詳しかったです。