マガジンのカバー画像

LLM

336
運営しているクリエイター

#論文紹介

LLMニュースまとめ[2024年8月12日~8月18日]

LLMニュースまとめ[2024年8月12日~8月18日]

2024年8月12日~8月18日のLLM関連のニュースとして有名なもの、個人的に刺さったもの12点を以下にまとめる。

1. The AI Scientist

AIエージェントが、独自の研究実施、研究結果整理、論文執筆を一貫して実施。

2. Grok-2

LMSYS Chatbot ArenaでClaude 3.5 SonnetとGPT-4-Turboを凌駕

3. LongWriter

もっとみる
論文「Self Generated Wargame AI: Double Layer Agent Task Planning Based on Large Language Model」の紹介

論文「Self Generated Wargame AI: Double Layer Agent Task Planning Based on Large Language Model」の紹介

目次
本記事の概要戦略ゲームにおいてChatGPTに意思決定を行わせるAIを提案する論文「Self Generated Wargame AI: Double Layer Agent Task Planning Based on Large Language Model」を紹介する記事となります。

本論文の紹介論文名Self Generated Wargame AI: Double Layer A

もっとみる
【論文紹介】複数トークン予測によるLLMの精度向上と高速化

【論文紹介】複数トークン予測によるLLMの精度向上と高速化

Meta社の研究チーム(Fabian Gloeckle, Badr Youbi Idrissi, Baptiste Rozière, David Lopez-Paz, Gabriel Synnaeve)が発表した論文がXで話題になっていたので、ざっと眺めてみました。理解不足も多々あると思いますので、詳細は原文を参照願います。

複数トークン予測モデルの概要トレーニング:従来のTransformer

もっとみる
LLMの強化学習における新手法:TR-DPOの論文紹介

LLMの強化学習における新手法:TR-DPOの論文紹介

論文名

Learn Your Reference Model for Real Good Alignment

arXivリンク

https://arxiv.org/pdf/2404.09656.pdf

ひとこと要約

Direct Preference Optimization (DPO)を改良したTrust Region DPO (TR-DPO)を提案。

メモ

背景

従来のアライン

もっとみる
LLMの学習データの刈り込みに関する論文紹介[Cohere論文紹介No.2]

LLMの学習データの刈り込みに関する論文紹介[Cohere論文紹介No.2]

論文名

When Less is More: Investigating Data Pruning for Pretraining LLMs at Scale

arXivリンク

https://arxiv.org/pdf/2309.04564.pdf

ひとこと要約

LLMの学習データの質を3つの評価指標で評価し、データを刈り込むことでLLMの性能を上げられることを明らかにした。またシンプ

もっとみる
LLMの継続学習における論文紹介[Cohere論文紹介No.1]

LLMの継続学習における論文紹介[Cohere論文紹介No.1]

論文名

Investigating Continual Pretraining in Large Language Models: Insights and Implications

arXivリンク

https://arxiv.org/pdf/2402.17400.pdf

ひとこと要約

LLMの継続学習においてドメインの内容や順序などについて調査。ドメインを類似度順で継続学習した方がド

もっとみる
LLMのアルゴリズム的推論能力向上の論文紹介

LLMのアルゴリズム的推論能力向上の論文紹介

論文名

Language Models as Compilers: Simulating Pseudocode Execution Improves Algorithmic Reasoning in Language Models

arXivリンク

https://arxiv.org/pdf/2404.02575.pdf

ひとこと要約

LLMのアルゴリズム的推論能力を向上させるための新し

もっとみる
言語モデルの記憶のメカニズムについての論文紹介

言語モデルの記憶のメカニズムについての論文紹介

論文名

Localizing Paragraph Memorization in Language Models

arXivリンク

https://arxiv.org/pdf/2403.19851.pdf

ひとこと要約

言語モデルの記憶のメカニズムについて調査。125Mの言語モデルの記憶には第一層の特定のアテンションヘッド(memorization head)が重要な役割を持っている可能

もっとみる
携帯のGPUでLLMを効率的に実行する論文紹介

携帯のGPUでLLMを効率的に実行する論文紹介

論文名

Transformer-Lite: High-efficiency Deployment of Large Language Models on Mobile Phone GPUs

arXivリンク

https://arxiv.org/pdf/2403.20041.pdf

ひとこと要約

モバイル端末のGPUで大規模言語モデル(LLM)を効率的に実行するTransformer-Li

もっとみる
LLaMA-Factoryの論文紹介

LLaMA-Factoryの論文紹介

論文名

LLAMAFACTORY: Unified Efficient Fine-Tuning of 100+ Language Models

arXivリンク

https://arxiv.org/pdf/2403.13372.pdf

ひとこと要約

簡単かつ効率的にLLMのファインチューニングを行うためのフレームワークであるLLaMA-Factoryの紹介

メモ

LLaMA-Fact

もっとみる
【論文紹介】TDB: トランスフォーマーデバッガを使ったGPTの内部メカニズムの解析例

【論文紹介】TDB: トランスフォーマーデバッガを使ったGPTの内部メカニズムの解析例

Transformerベースの言語モデルの内部動作を確認するためのツールを用いて各層の役割について解析する取り組みを行っている以下論文(Interpretability in the Wild: a Circuit for Indirect Object Identification in GPT-2 small。うまく訳せませんが、「GPT-2 smallにおける間接目的語識別の解明:(学習から

もっとみる
HyenaDNA: ゲノム配列の長距離依存関係を解明する基盤モデル

HyenaDNA: ゲノム配列の長距離依存関係を解明する基盤モデル


大規模言語モデルはゲノムの言語を読み解けるのか?

2003年にヒトのゲノム配列が解読された。それはヒトDNAの配列解読競争の1つの終わりを意味したが、そのATGCの4文字の羅列が何を意味するか?というDNA配列の意味を解読する研究の始まりでもあった。そして、20年ほどたった今もその努力はDNA配列解析として続けられている。

ChatGPTに代表される大規模言語モデル(LLMs)は、大量の言語

もっとみる
ChatGPT はどんな性格?PsychoBench を使った LLM の心理描写のベンチマーク

ChatGPT はどんな性格?PsychoBench を使った LLM の心理描写のベンチマーク

こんにちは、PKSHA Technology の AI Solution 事業本部にてシニアアルゴリズムリードを務めている渡邉です。近年、大規模言語モデル(LLM)をはじめとする人工知能技術が革新的な進化を遂げており、当該領域に対する世の中の関心が非常に高まっています。弊社は創業以来、人工知能技術の研究開発・社会実装を通じて様々な知識を蓄積してきました。その知識を皆様に共有し共に成長していく場とし

もっとみる