今回は、Databricks社の機械学習プラットフォームで訓練されたdolly-v2-12bという120億パラメータの言語モデルの紹介となります。以前、Cerebralの130億パラメータではGoogle Colabでうまく動かせませんでしたが、今回は動かすことができました。また、本モデルは商用利用も認められているとのことです。
今回は、以下のサイトを参考にしました。
Google Colabで実行するときは、下記のコードを実行しました。
%pip install accelerate>=0.12.0 transformers[torch]==4.25.1
import torch
from transformers import pipeline
generate_text = pipeline(model="databricks/dolly-v2-12b", torch_dtype=torch.bfloat16, trust_remote_code=True, device_map="auto")
上記を実行するときは、Google ColabでGPUのプレミアムで実行しました。実行したときのRAMやディスクは以下となります。GPUは24GB程度利用して使えるようです。これだけで120億パラメータが利用できるようになったのは感慨深いです。
さて、色々と質問をしていきましょう。
generate_text("Explain to me the difference between nuclear fission and fusion.")
該当サイトにある質問をそのまま入れてみました。まあ、こういう時は色々と選別された質問が掲載されますから、他にどうなるか見ていきましょう。
generate_text("東京都と日本の違いを説明してください。")
generate_text("東京都について説明してください。")
generate_text("Can you explain Tokyo?")
generate_text("Can you explain the advantages in ChatGPT?")
generate_text("Can you explain dolly-v2-12b?")