人気の記事一覧
700億パラメータの日本語LLM「ELYZA-japanese-Llama-2-70b」を開発し、デモを公開しました
Stability AI、日本語大規模言語モデル「Japanese Stable LM 2 1.6B」を発表。Google Colabのシークレット機能で短いコードを書いてみよう!
ao-Karasu:最先端の72B日本語LLM開発
ABCIで10万(100K)会話の日本語マルチターンデータセットを作りました
日本語Wikipediaのマルチターン会話データセット10万個を作りました
社長(AI)に頼んで日本語マルチターンデータセットを作成しました。まずは10K
コード生成・補完に特化した日本語LLM「ELYZA-japanese-CodeLlama-7b」を公開しました(商用利用可)
LLM の chat_template に気をつけろ!
Mac内のローカルで電子カルテ解析できますか? 〜日本語LLM(Swallow)を使ってみた〜
【デジタルMATSUMOTOの考察(2024/5/13)】日本の高校生が日本語能力最強の7Bモデルを実現
RP(ERP)と小説生成のみに焦点を当てた日本語LLMの性能比較
最近公開された日本語LLMを要約生成タスクで検証してみる
CALM2-7Bの性能を他の日本語LLMと比較してみた
rinna社が日本語特化の対話GPT言語モデルを公開! VRAM6GBあれば動くかも。
日本語言語モデル「Japanese StableLM Alpha by StabilityAI」を試しました。
CyberAgentLM2 (CALM2) のモデルの Google Colab 実行コード
5つの注目日本語LLMと日本語LLM開発の課題(by Bing)