最近の記事
Google Colab 無料版でELYZA-japanese-Llama-2-7b-instruct(4bit量子化 GPTQ)を爆速ストリーミングしてみた
ELYZA 様から商用利用可能な日本語LLM「ELYZA-japanese-Llama-2-7b」がリリースされました! ELYZA 様のモデルは性能が高いだけでなく、実際に人手で評価されたスプレッドシートまで公開されています。 ベンチマークよりも実際の出力結果を見たいことが多いため、こういった活動は大変有り難いですね。 今回は、「ELYZA-japanese-Llama-2-7b-instruct」(fastではない方)を GPTQで4bitに量子化したモデルと、同時に
LLMのembeddingベクトルを使ってテキスト分類のフレームワークを提案したClusterLLMの疑似コードを公開しました!
LLMとクラスタリングを組み合わせた手法 ClusterLLM が公開されました! ClusterLLMのメリット 従来の機械学習の組み合わせ: ClusterLLMは、従来の機械学習の手法を効果的に組み合わせることで、より高度なテキスト分類を実現しています。 継続的なチューニング: ClusterLLMのフレームワークは、継続的なpromptチューニングフローを持っています。これにより、分類の精度を向上させることができます。 ChatGPTは中立的なラベル生成能力を