マガジンのカバー画像

GenerativeAI

60
運営しているクリエイター

#LLM

生成AI活用の試行錯誤〜Ubie社での取り組み〜

生成AI活用の試行錯誤〜Ubie社での取り組み〜

生成AIChatGPTをはじめとするGenerativeAI(生成AI)は、テレビや新聞で見ない日はないくらいに話題になっています。YouTubeでも芸人さんがChatGPTを紹介する動画が多数出ています。(個人的に、芸人かまいたちの「ChatGPTに漫才を作ってもらう」という動画が好きです。)

企業でも、ソフトバンクやNTTなどの大企業が、会社を上げて生成AIの開発・活用をしていくと発表してい

もっとみる
【LLM活用】アイデアが創発される音声認識メモアプリの紹介と、LLMを活用してみての学び

【LLM活用】アイデアが創発される音声認識メモアプリの紹介と、LLMを活用してみての学び

日常生活に溶け込むような大規模言語モデル(以下、LLM)の活用方法を模索していたのですが、先日結構良さそうなアイデアを思いついたので作ってみました!

その名も「音声でサクッとメモを残せて、蓄積されたメモから勝手にアイデアが創発されるアプリ」です!

先月からSwiftの勉強を始めて、初めてのiOSモバイルアプリ開発でしたが、我ながら普段使いに耐えうる形に作れた気がします。

この記事ではアプリの

もっとみる
大規模言語モデル(LLM)を活用するための戦略・実務フレームワーク

大規模言語モデル(LLM)を活用するための戦略・実務フレームワーク

はじめに株式会社cross-Xの古嶋です。DX戦略の立案やデータ・AI活用の支援をしています。

今回は、本記事の表紙にも掲載している「大規模言語モデル(LLM)活用の戦略・実務フレームワーク」について弊社の見解を簡単に解説したいと思います。

そもそもですが、このフレームワークの前身は、拙著『DXの実務』でDX戦略の全体像を示した以下のフレームワークです。

このフレームワークの狙いは「戦略と技

もっとみる
LLMのファインチューニング で 何ができて 何ができないのか

LLMのファインチューニング で 何ができて 何ができないのか

LLMのファインチューニングで何ができて、何ができないのかまとめました。

1. LLMのファインチューニングLLMのファインチューニングの目的は、「特定のアプリケーションのニーズとデータに基づいて、モデルの出力の品質を向上させること」にあります。

OpenAIのドキュメントには、次のように記述されています。

しかし実際には、それよりもかなり複雑です。

LLMには「大量のデータを投げれば自動

もっとみる
無料でGPT4越え!?ついに来たXwin-LM

無料でGPT4越え!?ついに来たXwin-LM

今日のウィークリーAIニュースではnpaka大先生と一週間のニュースを振り返った。今週もいろいろあったが、なんといってもダークフォース、GPT-4越えと言われるXwin-LMである。中国製。

大先生もまだ試してないというので番組内で一緒に試してみた。
もちろんドスパラ製Memeplexマシン(A6000x2)を使用。

>>> from transformers import AutoToken

もっとみる
生成AI/LLM時代のエンジニアリングとの向き合い方とは? Ubie×ログラス×Gaudiyが語る【イベントレポート】

生成AI/LLM時代のエンジニアリングとの向き合い方とは? Ubie×ログラス×Gaudiyが語る【イベントレポート】

2023年5月23日(火)に開催された、特別イベント「生成AI/LLM時代のエンジニアリングとの向き合い方」。

生成AI/LLMにいち早く取り組んできたUbie社、ログラス社、Gaudiyの3社で、プロダクトや業務へのAI活用から、生成AI/LLM時代にエンジニアとして必要なスキルやマインドセット、今後の挑戦に至るまでをお話ししました。そのイベント内容を、長編レポートでお届けします!

第一線で

もっとみる
LLM のデータセットまとめ

LLM のデータセットまとめ

LLMのデータセットをまとめました。

1. 事前学習データセット1-1. Text

1-2. Code

2. SFTデータセット2-1. Instruction

2-2. Code Instruction

2-3. Chat

3. Preferenceデータセット4. タスク別データセット4-1. マルチモーダル

4-2. キャラクター対話

4-3. AITuber特化型質問応答

もっとみる

ローカルPCでLLMとLangChainで遊ぶ

今回は、お手軽にローカルPCでLLMモデルとLangChainで遊んでみました。モデルはStable-Vicuna-13Bを4bit量子化した重みファイルを使いました。
ここ一発はgpt-4を使うとしても、普段使いでOpenAIに課金せずに色々試せるのは、気持ち的にラクになりますね。

なお、llama-cpp-python ラッパーからGPUを呼び出す方法がよくわからなかったので、ひとまずCPU

もっとみる
Rinna 3.6B の量子化とメモリ消費量

Rinna 3.6B の量子化とメモリ消費量

「Google Colabでの「Rinna 3.6B」の量子化とメモリ消費量を調べてみました。

1. 量子化とメモリ消費量「量子化」は、LLMのメモリ消費量を削減するための手法の1つです。通常、メモリ使用量が削減のトレードオフとして、LLMの精度が低下します。

AutoTokenizer.from_pretrained()の以下のパラメータを調整します。

2. Colabでの確認Colabで

もっとみる