そら

モータースポーツエンスージアスト&AI大好き人間

そら

モータースポーツエンスージアスト&AI大好き人間

マガジン

  • LLM論文記録

    大規模言語モデル関連の論文をGPT-4やClaude3 Opusに読みこませ、壁打ちした記録をまとめたものです。

  • FIA F3まとめ

最近の記事

【論文要約】Direct Preference Optimization: Your Language Model is Secretly a Reward Model【メモ】

イントロダクション今回は『Direct Preference Optimization: Your Language Model is Secretly a Reward Model』というDPO手法を提案した以下の論文を要約する。論文のpdfをClaude 3 Opusに渡して要約させた。 研究の目的と背景<purpose> 本研究の目的は、人間の好みに沿うようにニューラル言語モデル(LM)を効率的に微調整する新しいアルゴリズム「Direct Preference Op

    • 【モデル作成】ChatVector手法を用いて日本語モデルのNSFW能力とRP能力を強化した【備忘録】

      イントロダクション今回はAratakoさん作成のAntler-RP-v1とJapanese-Starling-RPをそれぞれWestLakeでchatvectorを0.5の係数で強化した2つのモデルをそれぞれマージさせたNSFW方向とRP方向に強化したモデルを作成した。 またそのモデルをELYZA-tasks-100で評価したところ平均スコアが3.67という高いスコアを出した。 以下に作成したモデルのhfリンクを示す。 手法今回は以下の2つのモデルをベースに用いた htt

      • 【論文要約】Megalodon: Efficient LLM Pretraining and Inference with Unlimited Context Length【自分用メモ】

        イントロダクション今回は『Megalodon: Efficient LLM Pretraining and Inference with Unlimited Context Length』という以下の論文を要約する。論文のpdfをClaude 3 Opusに渡して要約させた。 研究の目的と背景<purpose> 本研究の目的は、大規模言語モデル(LLM)の事前学習と推論の効率を改善し、無制限の文脈長に対応できる新しいニューラルアーキテクチャMEGALODONを開発すること

        • 【論文要約】Chat Vector: A Simple Approach to Equip LLMs with Instruction Following and Model Alignment in New Languages【自分用メモ】

          イントロダクション今回は『Chat Vector: A Simple Approach to Equip LLMs with Instruction Following and Model Alignment in New Languages』という以下の論文を要約する。論文のpdfをClaude 3 Opusに渡して要約させた。 研究の目的と背景<purpose> 本研究の目的は、大規模言語モデル(LLM)に対し、新しい言語での会話能力と人間の価値観に沿ったモデルアライ

        【論文要約】Direct Preference Optimization: Your Language Model is Secretly a Reward Model【メモ】

        • 【モデル作成】ChatVector手法を用いて日本語モデルのNSFW能力とRP能力を強化した【備忘録】

        • 【論文要約】Megalodon: Efficient LLM Pretraining and Inference with Unlimited Context Length【自分用メモ】

        • 【論文要約】Chat Vector: A Simple Approach to Equip LLMs with Instruction Following and Model Alignment in New Languages【自分用メモ】

        マガジン

        • LLM論文記録
          15本
        • FIA F3まとめ
          0本

        記事

          【Claude3】VTube Studio との連携を実現する Python コードの解説【丸投げ】

          イントロダクションClaude3 Opusに丸投げして書かせたプログラムがなかなかのものだったので共有しておきます。以下のライブラリ2つのソースコードを全てコンテキストに投げたうえで書かせたプログラムです。 TL;DR本記事では、VTube Studio と連携してバーチャルキャラクターの動作を制御するための一連の Python プログラムについて解説します。これらのプログラムは、vts_client.py、vts_control.py、vts_actions.py の3つ

          【Claude3】VTube Studio との連携を実現する Python コードの解説【丸投げ】

          【論文要約】RoFormer: Enhanced Transformer with Rotary Position Embedding【メモ】

          イントロダクション今回は『RoFormer: Enhanced Transformer with Rotary Position Embedding』という以下の論文を要約する。論文のpdfをClaude 3 Opusに渡して要約させた。 研究の目的と背景<purpose> 本研究の目的は、Transformer言語モデルにおいて、相対位置情報を利用した新しい位置エンコーディング手法Rotary Position Embedding (RoPE)を提案し、性能を向上させる

          【論文要約】RoFormer: Enhanced Transformer with Rotary Position Embedding【メモ】

          【論文要約】Griffin: Mixing Gated Linear Recurrences with Local Attention for Efficient Language Models【メモ】

          イントロダクション今回は『Griffin: Mixing Gated Linear Recurrences with Local Attention for Efficient Language Models』という以下の論文を要約する。論文のpdfをClaude 3 Opusに渡して要約させた。 研究の目的と背景<purpose> 本研究の目的は、より効率的で高性能な言語モデルを開発することである。具体的には、以下の2つの新しいモデルアーキテクチャを提案している。 H

          【論文要約】Griffin: Mixing Gated Linear Recurrences with Local Attention for Efficient Language Models【メモ】

          【論文要約】Jamba: A Hybrid Transformer-Mamba Language Model【メモ】

          イントロダクション今回は以下のJambaアーキテクチャの論文を要約する。Mamba論文も同様に要約した記事を今後書こうと思う。(順序逆なのはすいません。) 研究の目的と背景<purpose> 本研究の目的は、「Jamba」と名付けられた新しい大規模言語モデルを開発し、提案することである。Jambaは、Transformerレイヤーと「Mamba」と呼ばれる最新のstate-spaceモデルのレイヤーを組み合わせたハイブリッドアーキテクチャと、mixture-of-expe

          【論文要約】Jamba: A Hybrid Transformer-Mamba Language Model【メモ】

          【論文要約】Many-shot Jailbreaking【Claude 3 Opus】

          イントロダクション以下のAnthropic社のメンバーがメインで行った研究の論文をClaude 3 Opusを用いてまとめたメモをまとめた記事です。 研究の目的と背景<purpose> 本研究の目的は、大規模言語モデル(LLM)において新たに可能となった長いコンテキスト長を用いた攻撃手法である「Many-shot Jailbreaking (MSJ)」について詳細に調査・分析し、その影響と対策を検討することである。 LLMは自然言語処理の性能を大きく向上させてきたが、

          【論文要約】Many-shot Jailbreaking【Claude 3 Opus】

          【自分用メモ】BitNet b158の論文とNousResearchの実装を比較してみる

          イントロダクション今回は以下の1.58bits LLMを提唱した論文と、NousReseachの実装を両方Claude 3 Opusに突っ込んで、対応を説明してもらった。 実装と論文で提唱されている手法の対応関係1.実装では以下のようにBitLinearクラスを定義しており、nn.Linearの代わりに使用されています。 class BitLinear158(nn.Linear): """ This is only for training, and kern

          【自分用メモ】BitNet b158の論文とNousResearchの実装を比較してみる

          【論文要約】LISA: Layerwise Importance Sampling for Memory-EfficientLarge Language Model Fine-Tuning【自分用メモ】

          イントロダクション今回は『LISA: Layerwise Importance Sampling for Memory-Efficient Large Language Model Fine-Tuning』という以下の論文を要約する。論文のpdfをClaude 3 Opusに渡して要約させた。 研究の目的と背景<purpose> 本研究の目的は、大規模言語モデル(LLM)のファインチューニングにおけるメモリ効率を改善することです。具体的には、以下の点を目指しています。

          【論文要約】LISA: Layerwise Importance Sampling for Memory-EfficientLarge Language Model Fine-Tuning【自分用メモ】

          【論文要約】The Evolved Transformer【メモ】

          イントロダクション今回は『The Evolved Transformer』という以下の論文を要約する。論文のpdfをClaude 3 Opusに渡して要約させた 研究の目的と背景<purpose> 本研究の目的は、ニューラルアーキテクチャ探索(NAS)を用いて、Transformerを超える性能を持つ新しいフィードフォワードシーケンスモデルを発見することである。近年、Transformerアーキテクチャがシーケンスタスクにおいて高い性能を示す一方で、NASによって人間が設

          【論文要約】The Evolved Transformer【メモ】

          Claude3 Opusに論文を読ませるためのプロンプト【自分用メモ】

          Claude3 Opusに論文を読ませて、いい結果を得るために試行錯誤した末に生み出したプロンプトを残します。 研究の目的と背景研究の目的と背景を2000文字以上でまとめるためのプロンプト: <purpose> 本研究の目的について、以下の観点を踏まえて詳細に説明してください: - 研究で解決しようとしている問題や達成しようとしている目標 - 研究の意義や重要性 - 研究の新規性や独自性 </purpose> <background> 本研究の背景について、以下の観点を踏ま

          Claude3 Opusに論文を読ませるためのプロンプト【自分用メモ】

          【論文要約】BitDelta: Your Fine-Tune May Only Be Worth One Bit【メモ】

          イントロダクション今回はBitDeltaと言われる手法を提案した以下の論文を要約する。論文のpdf及び公式のgithubのコードをClaude 3 Opusに渡して要約させた。 https://arxiv.org/abs/2402.10193 論文の主要部分の要約本論文では、大規模言語モデル(LLM)のfine-tuningによって生じる重みのdeltaを圧縮することで、複数のfine-tuningモデルを効率的に保存・サービスする手法BitDeltaを提案しています。 B

          【論文要約】BitDelta: Your Fine-Tune May Only Be Worth One Bit【メモ】

          【論文要約】Evolutionary Optimization of Model Merging Recipes【Claude 3 Opus】

          イントロダクション今回の記事ではClaude 3 Opusを用いて、Sakana AIから進化的計算による基盤モデル構築に関する論文を要約してみました。今回もOpusと壁打ちした結果をメモのようにまとめています。 引用論文 [1]T. Akiba, M. Shing, Y. Tang, Q. Sun, and D. Ha, ‘Evolutionary Optimization of Model Merging Recipes’. arXiv, Mar. 19, 2024.

          【論文要約】Evolutionary Optimization of Model Merging Recipes【Claude 3 Opus】

          【実験】Claude 3 Haikuが出たのでロールプレイさせる

          イントロダクションやっと(自分が本命に思っていた)Haikuがでました。 取り急ぎ最速でHaikuにAItuber用のロールプレイをさせて挙動をみるものです。(あとで)比較にGPT-3.5の出力も出します。 Claude 3 Haikuの出力システムプロンプト 短い1文で返信してください。長くても40文字くらいでお願いします。日本語を使ってください。 ### システムプロンプトこれから、あなたはソラという役を演じ、視聴者とロールプレイをす

          【実験】Claude 3 Haikuが出たのでロールプレイさせる