マガジンのカバー画像

ローカルLLM関連記事

31
運営しているクリエイター

2023年4月の記事一覧

vicuna-13bで embedding vectorの計算 (& GPT・RWKVとの比較)

背景

背景はこちらの記事と同じです

最近は、GPTが流行ってます

しかしGPT-3.5以降はfine tuningが執筆時点でできません

なので、オリジナルデータを学習させるには、少し工夫が必要です

要するに、文章のembedding vectorを計算する必要があります

しかし、GPTのAPIは地味に値段が高いため、pdfが100個くらいあったりすると、破産する恐れが出てきます

もっとみる
大規模言語モデル間の性能比較まとめ

大規模言語モデル間の性能比較まとめ

StableLMのファインチューニングってできるのかな?と調べたところ、GitHubのIssueで「モデル自体の性能がまだ良くないから、ファインチューニングの段階ではないよ」というコメントがありまして。

その根拠として提示されていた大規模言語モデル間の性能比較シートがとても参考になったので共有したいと思います。

シートの中身を見てみるstablelm-base-alpha-7bは54行目にあり

もっとみる
dolly-v2-12bという120億パラメータの言語モデルを使ってみた!

dolly-v2-12bという120億パラメータの言語モデルを使ってみた!

今回は、Databricks社の機械学習プラットフォームで訓練されたdolly-v2-12bという120億パラメータの言語モデルの紹介となります。以前、Cerebralの130億パラメータではGoogle Colabでうまく動かせませんでしたが、今回は動かすことができました。また、本モデルは商用利用も認められているとのことです。

今回は、以下のサイトを参考にしました。

Google Colab

もっとみる
Google Colab で Cerebras-GPT を試す

Google Colab で Cerebras-GPT を試す

「Google Colab」で「Cerebras-GPT」を試したので、まとめました。

1. Cerebras-GPT「Cerebras-GPT」は、OpenAIのGPT-3をベースにChinchilla方式で学習したモデルになります。学習時間が短く、学習コストが低く、消費電力が少ないのが特徴とのことです。

2. Colabでの実行Google Colabでの実行手順は、次のとおりです。

(

もっとみる
Google Colab で RWKV を試す - RWKVパッケージ版

Google Colab で RWKV を試す - RWKVパッケージ版

「Google Colab」で「RWKV」を試したので、まとめました。

前回1. RWKV「RWKV」は、TransformerレベルのLLM性能を備えたRNNです。高性能、高速推論、VRAMの節約、高速学習、長い文脈長、自由な埋め込みを実現しています。

2. Colabでの実行Colabでの実行手順は、次のとおりです。

(1) メニュー「編集→ノートブックの設定」で、「ハードウェアアクセラ

もっとみる
Alpacaデータセットによる RWKV のファインチューニングを試す

Alpacaデータセットによる RWKV のファインチューニングを試す

「Google Colab」で「Alpacaデータセット」による「RWKV」のファインチューニングを試したのでまとめました。

前回1. alpaca_ja今回は、Alpacaデータセットの日本語版「alpaca_ja」を使います。

2. ChatRWKVのプロンプトの確認「ChatRWKV」で、モデルに入力されるプロンプトを確認します。
以下のように、print()を追加しました。

prin

もっとみる
Google Colab で RWKV のファインチューニングを試す

Google Colab で RWKV のファインチューニングを試す

「Google Colab」で「RWKV」のファインチューニングを試したので、まとめました。

前回1. RWKV「RWKV」は、TransformerレベルのLLM性能を備えたRNNです。高性能、高速推論、VRAMの節約、高速学習、長い文脈長、自由な埋め込みを実現しています。

2. データセットの準備今回は、練習用に「あかねと〜くデータセット」の「dataset.txt」を使います。

テキス

もっとみる
大規模言語モデルの学習コードまとめ

大規模言語モデルの学習コードまとめ

大規模言語モデルの学習コードをまとめました。

1. Alpacaの学習コード「LLaMA 」を標準の「HuggingFace Transformers」の学習コードをでファインチューニングを行います。

「Transformers」はまだ「LLaMA」を公式サポートしてないため、特定のフォーク(68d640f7c368bcaaaecfc678f11908ebbd3d6176)を使用します。

もっとみる
LLM のデータセットまとめ

LLM のデータセットまとめ

LLMのデータセットをまとめました。

1. 事前学習データセット1-1. Text

1-2. Code

2. SFTデータセット2-1. Instruction

2-2. Code Instruction

2-3. Chat

3. Preferenceデータセット4. タスク別データセット4-1. マルチモーダル

4-2. キャラクター対話

4-3. AITuber特化型質問応答

もっとみる

フリーの13Bモデル Cerebras-GPT-13BとGPT4-x-Alpacaをローカルで試す

四月に入って、エイプリルフールのネタをHuggingFaceでやるという不届き者も現れたが、いくつか本物のニュースが混じっているから気が抜けない。

Cerebras-GPTは、完全にフリーのGPTモデルを標榜している。
ドスパラ製Memeplexマシン(A6000x2,256GBRAM,20TBHDD)で実際にこの大規模言語モデルをダウンロードして試してみた。

まずは1.3Bモデル

>>>

もっとみる

Alpacaデータセットの日本語版を公開しました

今後ファインチューニングなどで使いたい人がいると思うので自腹で自動翻訳したデータセットを公開します。alpaca_cleanedは現在作業中です