記事一覧
![](https://assets.st-note.com/production/uploads/images/142888271/rectangle_large_type_2_f2e2b66b1adf15949b451d2120e57682.png?width=800)
iPhone単体でオンデバイスLLMを試してみた。LLMFarm
こんにちはIZAIエンジニアチームです。 今回は、「LLMFarm」というiPhone上でLLMを動かせるOSSを、iPhone 15 Proを使って試してみます。 https://github.com/guinmoon/LLMF…
![](https://assets.st-note.com/production/uploads/images/145971072/rectangle_large_type_2_a7d61528fc373e6eb1f455fa7d374186.png?width=800)
自動でプロンプトエンジニアリングする『APE(Automatic Prompt Engineering)』を試す。LangGraph
こんばんは、IZAIエンジニアリングチームです。今回は、自動プロンプトエンジニア(APE)についての論文のアイディアをもとに、遺伝的アルゴリズムチックにプロンプトを自動で調整する方法を試してみました。 APE(Automatic Prompt Engineering)とはAPEはAutomatic Prompt Engineeringの略で、その名の通り自動でプロンプトエンジニアリングを行うアルゴリズムです。与えられたタスクをもとにオリジナルのプロンプトと意味的に近しいプロ
![](https://assets.st-note.com/production/uploads/images/143903797/rectangle_large_type_2_f47a9e15010940c14be639cc484fee45.png?width=800)
RAGのチャンクサイズと検索手法(Vector Index / Summary Index)について考察してみた。Llama Index, LLM
こんにちは!株式会社IZAI、エンジニアチームです。 今回は、Llama IndexというOSSライブラリを使ってRAGを実装し、その検索精度に与える各パラメータの影響を考察してみます。 そもそもRAGとはRAG(Retrieval Augmented Generation)とはLLMにデータを入力する際に、 外部の知識ベースからその入力内容に合った情報を探し出し、その情報をLLMに渡すことで回答精度を上げる手法です。 RAG(Retrieval Augmented Gen
![](https://assets.st-note.com/production/uploads/images/143208376/rectangle_large_type_2_9da2da79289a4cea00257d085ed3f536.png?width=800)
RAGの効率を劇的に向上させる手法 xRAG(Extreme Context Compression for RAG)を試してみた。
こんにちは、IZAIエンジニアチームです。 今回は、先日arXivに公開されたxRAG: Extreme Context Compression for Retrieval-augmented Generation with One Tokenという論文についてご紹介します。 xRAGとは?xRAGは、Retrieval-Augmented Generation (RAG)を拡張した手法です。RAGでは、検索結果のチャンク(文章断片)をそのまま言語モデルに入力するのに対し