Pes Cafe

生物学こそ至高。メーカー在。喫茶店やる。

Pes Cafe

生物学こそ至高。メーカー在。喫茶店やる。

マガジン

記事一覧

Reranking, RAG series 6/n

RAGシリーズ6回目。 5回目でskipした下記フローのうち、Rerankingのメモです。 RAGのフローを5つのStepに分割しています。 ① Query Classification:RAGの要否判断 ② R…

Pes Cafe
7日前
1

一般的なRAGのworkflow, RAG series 5/n

RAGシリーズ5回目。 本稿にはあまり関係ないのですが、下の図がわかりやすくて良いなと感じたので、下図に則ってメモを残していこうと思いました。 RAGのフローを5つのS…

Pes Cafe
7日前
1

AirLLM:405BのmodelをLocalで動かすと

去年の年末頃、比較的大きなLLMのmodelでも各層毎にGPUで計算することで少ないGPUメモリでも動かすことができるAirLLMが公開されました。 その方がLlama 3.1 405B modelを…

Pes Cafe
2週間前
8

DSPy+CoT, RAG series 4/n

RAGシリーズ4回目。 今回は自動でprompt最適化してくれるDSPyを用いたRAGです。 Prompt Engineeringが面倒だと感じる私の助けになってくれるかもしれません。今回は推論…

Pes Cafe
2週間前
2

Lens.orgの特許Data活用(TOYOTA 1/n)

企業がその特許にどれ程力を入れているかを示す指標のひとつとしてファミリー数があります。Lens.orgはそのファミリー数を簡単に取得できます。 ユーザー登録だけすれば、…

Pes Cafe
3週間前
4

Llama-3-ELYZA-JP-8Bを雑に触る

Llama-3-ELYZA-JP-8Bについては下記参照。 0. 環境 1. RAGに使用するDBの準備 下記で作成したDBを流用します。 DBの内容は、Google Patentsで「(semiconductor) country…

Pes Cafe
1か月前
4

[UI]Chainlitで専門家AI_Local-LLM+Langchain+ChromaDB

LLMのUIにはtext-generation-webuiをはじめ様々なものがありますが、今回はChainlit(GitHub)に下記の記事で作成したDB(Langchain+ChromaDB)を使ってLocal-LLM(Starling-LM-…

Pes Cafe
8か月前
6

[活用例]Local-LLM+Topic model+Langchain+ChromaDB

今回は集めた特許データをTopic modelで分類し、分類したtopicごとにChromaDBでデータベースを作成、Langchainを使ってRAGを設定し、Local-LLMに回答してもらうフローを整…

Pes Cafe
8か月前
9

Starling-RM-7B-alphaとZephyr-7B-betaを簡単に比較

今更ですが、Starling-RM-7B-alphaを試してみました。本モデルの詳細は下記でまとめらています。 ベンチマーク MT Bench, AlpacaEval, MMLUのいずれでもZephyr-7B-betaを…

Pes Cafe
8か月前
5

[UI]Chainlitで専門家AIと会話する_Local-LLM+Document Summary Index

LLMのUIにはtext-generation-webuiをはじめ様々なものがありますが、今回はChainlit(GitHub)に下記の記事と同じ方法で作成したindexを使ってLocal-LLMに回答してもらうChat…

Pes Cafe
8か月前
14

Local-LLM+LongLLMLingua, RAG series 3/n

RAGシリーズ3回目。 今回はLlamaindexでLongLLMLinguaを用いたRAGです。 通常のRAGではpromptが長くなりがちで、計算コストが嵩む(ChatGPTなどを使用する場合は費用が嵩…

Pes Cafe
8か月前
10

[雑感]Local-Agentに向けて

比較的公知になっている知識の代表例が論文と特許です。 この中でも特にtext情報の処理については依然から活発に取組まれてきたものの(tfidf~bert)、今年のLLMの登場・普…

Pes Cafe
9か月前
4

Local PCに専門家を作る_Local-LLM+Document Summary Index

下記の通常のRAGに対し、LlamaindexのDocument Summary Indexを用いた事例です。 検索に要約文を用い、検索速度をあげつつ、要約文に質問例を追加することでembeddingでの…

Pes Cafe
9か月前
8

[自由研究に]ML-Potential_CHGNet,

Localで動かせる機械学習ポテンシャル、力場の紹介も兼ねたメモです。安価なPCでも動かせるため、中高生の方にぜひ研究者気分を少し味わってみて欲しいです。 紹介するの…

Pes Cafe
9か月前
3

いつでも手軽に呼び出せる専門家_Local-LLM+RAG活用事例

下記で紹介したLlamaindexのRecursive Retriever + Node Referencesを用いたRAG活用事例です。 専門知識を気軽に活用したくても、大抵、専門知識を持った人材(以下、専門…

Pes Cafe
9か月前
10

[memo]Knowledge Graph&Baseの作成

Knowledge Graph&Base(KG, KB)の作成事例の紹介も兼ねたメモです。 wikipedia、newspaper、GoogleNewsから取得したtext情報からREBELでのKG, KBの作成方法です。 下記で…

Pes Cafe
9か月前
8
Reranking, RAG series 6/n

Reranking, RAG series 6/n

RAGシリーズ6回目。
5回目でskipした下記フローのうち、Rerankingのメモです。

RAGのフローを5つのStepに分割しています。
① Query Classification:RAGの要否判断
② Retrieval:情報源の取得
③ Reranking:取得情報の順序最適化
④ Repacking:構造化
⑤ Summarization:要約

概要上記フローの②、③のみです。

もっとみる
一般的なRAGのworkflow, RAG series 5/n

一般的なRAGのworkflow, RAG series 5/n

RAGシリーズ5回目。

本稿にはあまり関係ないのですが、下の図がわかりやすくて良いなと感じたので、下図に則ってメモを残していこうと思いました。

RAGのフローを5つのStepに分割しています。
① Query Classification:RAGの要否判断
② Retrieval:情報源の取得
③ Reranking:取得情報の順序最適化
④ Repacking:構造化
⑤ Summariza

もっとみる
AirLLM:405BのmodelをLocalで動かすと

AirLLM:405BのmodelをLocalで動かすと

去年の年末頃、比較的大きなLLMのmodelでも各層毎にGPUで計算することで少ないGPUメモリでも動かすことができるAirLLMが公開されました。

その方がLlama 3.1 405B modelを8GB VRAM以下で動作させていたので、試してみました。

概要Llama-3.1-405B

言わずもがな、Meta社の現在最高峰のオープンソース、多言語対応、128Kと長いコンテキスト長のmo

もっとみる
DSPy+CoT, RAG series 4/n

DSPy+CoT, RAG series 4/n

RAGシリーズ4回目。

今回は自動でprompt最適化してくれるDSPyを用いたRAGです。

Prompt Engineeringが面倒だと感じる私の助けになってくれるかもしれません。今回は推論タスクで効果を発揮するCoT(Chain-of-Thought)を用います。

0. 環境

1. HotpotQA Dataset

今回はWikipediaの質問応答DatasetのHotpotQA

もっとみる
Lens.orgの特許Data活用(TOYOTA 1/n)

Lens.orgの特許Data活用(TOYOTA 1/n)

企業がその特許にどれ程力を入れているかを示す指標のひとつとしてファミリー数があります。Lens.orgはそのファミリー数を簡単に取得できます。

ユーザー登録だけすれば、50,000件の特許の基本的なDataをファミリー数(Simple family, Extended family)とともに出力できます。

例えばLens.orgで出力したTOYOTAの特許を分類し、以下のような最近特に出願件数

もっとみる
Llama-3-ELYZA-JP-8Bを雑に触る

Llama-3-ELYZA-JP-8Bを雑に触る

Llama-3-ELYZA-JP-8Bについては下記参照。

0. 環境

1. RAGに使用するDBの準備

下記で作成したDBを流用します。
DBの内容は、Google Patentsで「(semiconductor) country:US after:priority:20230101 language:ENGLISH」でヒットした857件の特許のうち、下記記事でFinFETに分類されたもの

もっとみる
[UI]Chainlitで専門家AI_Local-LLM+Langchain+ChromaDB

[UI]Chainlitで専門家AI_Local-LLM+Langchain+ChromaDB

LLMのUIにはtext-generation-webuiをはじめ様々なものがありますが、今回はChainlit(GitHub)に下記の記事で作成したDB(Langchain+ChromaDB)を使ってLocal-LLM(Starling-LM-7B-alpha)に回答してもらうChat-UIを作成します。

ほかのユーザーに使用してもらう際に、UIはユーザーの認知容易性の面でメリットがあります。

もっとみる
[活用例]Local-LLM+Topic model+Langchain+ChromaDB

[活用例]Local-LLM+Topic model+Langchain+ChromaDB

今回は集めた特許データをTopic modelで分類し、分類したtopicごとにChromaDBでデータベースを作成、Langchainを使ってRAGを設定し、Local-LLMに回答してもらうフローを整理しました。

フローは上のイメージ図の通り、下記の手順で進めます。

1. 特許からコンセプトを抽出
2. 抽出したコンセプトを分類
3. トピック毎にデータベースを作成
4. RAGの設定

もっとみる
Starling-RM-7B-alphaとZephyr-7B-betaを簡単に比較

Starling-RM-7B-alphaとZephyr-7B-betaを簡単に比較

今更ですが、Starling-RM-7B-alphaを試してみました。本モデルの詳細は下記でまとめらています。

ベンチマーク

MT Bench, AlpacaEval, MMLUのいずれでもZephyr-7B-betaを上回ります。私個人としてはAlpacaEvalのscoreが高い方が使い勝手が良いように感じています。

0. 環境

1. arXivから論文取得

"super resol

もっとみる
[UI]Chainlitで専門家AIと会話する_Local-LLM+Document Summary Index

[UI]Chainlitで専門家AIと会話する_Local-LLM+Document Summary Index

LLMのUIにはtext-generation-webuiをはじめ様々なものがありますが、今回はChainlit(GitHub)に下記の記事と同じ方法で作成したindexを使ってLocal-LLMに回答してもらうChat-UIを作成します。

クラウドや高性能PCで作成したindexをそれほど高性能でない別のPC内で活用することができます。ほかのユーザーに使用してもらう際にUIはユーザーの認知容易

もっとみる
Local-LLM+LongLLMLingua, RAG series 3/n

Local-LLM+LongLLMLingua, RAG series 3/n

RAGシリーズ3回目。

今回はLlamaindexでLongLLMLinguaを用いたRAGです。
通常のRAGではpromptが長くなりがちで、計算コストが嵩む(ChatGPTなどを使用する場合は費用が嵩む)、性能が低下する(ex.:“Lost in the middle”)、などの課題が生じます。それらの課題を、適切にpromptを圧縮するLLMLinguaとRerankingなどを組み合わ

もっとみる

[雑感]Local-Agentに向けて

比較的公知になっている知識の代表例が論文と特許です。

この中でも特にtext情報の処理については依然から活発に取組まれてきたものの(tfidf~bert)、今年のLLMの登場・普及によって、その活用が飛躍的に進んだことは周知のことと思います。

特に論文や特許などの自然言語の処理で課題になっていたことの一つに「構造化」があると思います。この構造化に対し、LLMは有効です。目的を聞けば目的を答え、

もっとみる
Local PCに専門家を作る_Local-LLM+Document Summary Index

Local PCに専門家を作る_Local-LLM+Document Summary Index

下記の通常のRAGに対し、LlamaindexのDocument Summary Indexを用いた事例です。

検索に要約文を用い、検索速度をあげつつ、要約文に質問例を追加することでembeddingでの検索の精度をあげることができます。

今回も前回同様に、専門知識が論文や特許になっているような、所謂「研究者」のような専門家チャットAIの実装を試みます。

0. 環境

1. 知識の収集・格納

もっとみる
[自由研究に]ML-Potential_CHGNet,

[自由研究に]ML-Potential_CHGNet,

Localで動かせる機械学習ポテンシャル、力場の紹介も兼ねたメモです。安価なPCでも動かせるため、中高生の方にぜひ研究者気分を少し味わってみて欲しいです。

紹介するのは少し前のものになりますが、下記のCederらのCHGNetです。

しばらくMatbenchで一番上に記載されていました。

機械学習(ML)ポテンシャルを使った分子動力学(MD)シミュレーションは低スペックのPCでも手軽に動かせ

もっとみる
いつでも手軽に呼び出せる専門家_Local-LLM+RAG活用事例

いつでも手軽に呼び出せる専門家_Local-LLM+RAG活用事例

下記で紹介したLlamaindexのRecursive Retriever + Node Referencesを用いたRAG活用事例です。

専門知識を気軽に活用したくても、大抵、専門知識を持った人材(以下、専門家)は高価で気軽に使えず、課題も多いと思います。
具体的には下記などがあります。

希少で活用頻度が低い

高価で予算が必要

レスポンスが悪い(コミュニケーションに時間を要す)

コミュ

もっとみる
[memo]Knowledge Graph&Baseの作成

[memo]Knowledge Graph&Baseの作成

Knowledge Graph&Base(KG, KB)の作成事例の紹介も兼ねたメモです。

wikipedia、newspaper、GoogleNewsから取得したtext情報からREBELでのKG, KBの作成方法です。

下記で紹介する記事では、
・ 単純なtextからのKB作成
・ 異なる表記で同じ意味の項目の統合
・ Web上のニュース記事からのKB作成
・ 複数記事からのKB作成
と順

もっとみる