ぱらだいす原田

ぱらだいす原田

記事一覧

人とLLMの役割分担について(人を繋ぐ観点)

1.はじめに 前回は、LLM+個人データセットによって、人と人の価値観を繋ぐ可能性について妄想を書いた。  今回は、LLMと人の役割分担について、どこにAIを使い、どこ…

1

人と人の価値観さえも繋ぐ「万能コネクタ」としてのAIの可能性

1.「万能コネクタ」としてのAIの可能性ChatGPTなどのLLMについて、以前考えていたことは、 システムxシステムを繋ぐものとしてのコネクタ。厳密に定義されたインタフ…

1

ChatGPTに関する私の勘違い三選: GPT-4のトークン制限、モデルの選択

最近、勘違いに気づいたこと:その1ChatGPT plus plan,team planの「GPT4モード」では、32kトークンまでしか使えない(公表事実)  GPT4Turboは、128kが上限だから、な…

2

2023年振り返り

振り返りメモ。 前提さて、そもそも「振り返りとは何だろう」という問い。振り返ることで何を成し得たいのか?そのアンサーによって書くテーマが変わるのではないか? 何…

6

ChatGPTとフラペチーノの話してたら、業務のヒントが得られたよ!

 今日は私の大好きな「おさつバターフラペチーノ」をめぐる意外な出来事をお話しします。 1.何があったのか?  スマホ製品のアンケートデータをChatGPTで分析中。  昼…

4

ChatGPTを使いこなす力の構成要素とは

ChatGPTを使いこなすために必要なこと=LLMから精度の高い回答を引き出す能力について考察したい。 1.LLMから精度の高いアウトプットを引き出すために必要な事は? 一…

3

"Deep Breath"でChatGPTの性能向上が意味する理由とドメイン固有の知識の重要性"

1.前回の話と、"Deep Breath"のファクトを確認  前回の話は、記事の主題が「ChatGPTを人間のように励ますと性能が上がる」という話で、一方で論文の骨子は、「プロン…

6

「ChatGPTと深呼吸の関係」の記事分析から考えたこと。

内容 きっかけ: 「"深呼吸して"と指示すると性能が上がる」記事と私の懐疑的な見解 ファクトチェック1:記事と論文の関係性の整理 ファクトチェック2:ChatGPTを使っ…

5

ChatGPTは忘れる、CodeInterpreterは忘れない(動いている限りは)

はじめに前回の考察で、関数をもっとバリバリ定義して使えば、CodeInterpreterの実行ミスが減るのではと思ったので、それをやる話 そもそもトークン上限を超えると何が問…

トークン上限を超える処理の実例(ChatGPT)

はじめに前回、CodeInterpreterの動きを考えていて、トークン上限を超える文章の分割とまとめに使えるなーと言ってた件↓を、今回は実際にやってみた話 事例概要:文章の…

Code Interpreter動作予想図とトークン上限との闘い再び?

1.まずは動作の全体イメージからまず簡略化したらこんなイメージではないかと。 LLM本体はステートレス(状態・情報を保持しない)のがポイントかと思っている。 実際…

ChatGPTの「custom instructionsとトークン上限」について考えたこと

※情報の正確性について責任持てません(笑) ■その1:トークン上限を超える時のChatGPTの使い方について 前提:基本は、トークン上限が大きいモデルを使えば解決。一番…

2022年振り返り…というか感じたこと

2022年に強く実感したことは、 「誰もが世界を作れる時代が到来/ではどんな世界を作りますか?」がいよいよ現実になったこと。 より正確には「誰もが世界を作れる時…

人とLLMの役割分担について(人を繋ぐ観点)

人とLLMの役割分担について(人を繋ぐ観点)


1.はじめに 前回は、LLM+個人データセットによって、人と人の価値観を繋ぐ可能性について妄想を書いた。
 今回は、LLMと人の役割分担について、どこにAIを使い、どこで自分の脳みそを使うのか、プロセス中のどのジョブを任せるかなどを、ゆるく考察したい。ただし一般的な分析ではなく、"人の価値観を繋ぐLLM"だからこそ出来る部分に焦点をあてて考える。ほんとうに思いつきを並べています。

2.前提:2

もっとみる
人と人の価値観さえも繋ぐ「万能コネクタ」としてのAIの可能性

人と人の価値観さえも繋ぐ「万能コネクタ」としてのAIの可能性


1.「万能コネクタ」としてのAIの可能性ChatGPTなどのLLMについて、以前考えていたことは、

システムxシステムを繋ぐものとしてのコネクタ。厳密に定義されたインタフェースが無くてもLLMを介することで、繋ぐことができる。これによりサービス間の「柔軟な」連携が可能になる。

実現例としては、JSONトランスレーター(色んなサービス間でJOSN渡しが可能)

ほかには、エッジAIとしてもイン

もっとみる
ChatGPTに関する私の勘違い三選: GPT-4のトークン制限、モデルの選択

ChatGPTに関する私の勘違い三選: GPT-4のトークン制限、モデルの選択


最近、勘違いに気づいたこと:その1ChatGPT plus plan,team planの「GPT4モード」では、32kトークンまでしか使えない(公表事実)
 GPT4Turboは、128kが上限だから、なんか128kまで使えるイメージを持っていました…

 要はmodelはGPT4Turbo128kを使っていても。ChatGPTアプリで32kまでの制限があるということ。ちなみにChatGPT

もっとみる
2023年振り返り

2023年振り返り

振り返りメモ。

前提さて、そもそも「振り返りとは何だろう」という問い。振り返ることで何を成し得たいのか?そのアンサーによって書くテーマが変わるのではないか?

何が良くて、何にわくわくしたか。自分が興味を持ったものが何なのか。一番自分が良いと思うことは何なのか?  

そして、何をもっとどうすれば、もっとわくわくできたのか。

すなわち、
自分の価値観に基づいて、何が良くて何が悪かったか振り返り

もっとみる

ChatGPTとフラペチーノの話してたら、業務のヒントが得られたよ!

 今日は私の大好きな「おさつバターフラペチーノ」をめぐる意外な出来事をお話しします。

1.何があったのか?

 スマホ製品のアンケートデータをChatGPTで分析中。
 昼休みにカジュアルな雑談をChatGPTに投げてみたところ、アンケートの新しい解析の糸口を見つけた!という話。

2.背景・前提

 この記事で取り上げている「スマホ製品のアンケート分析」は、「文系でも出来るデータ分析マニュアル

もっとみる

ChatGPTを使いこなす力の構成要素とは

ChatGPTを使いこなすために必要なこと=LLMから精度の高い回答を引き出す能力について考察したい。

1.LLMから精度の高いアウトプットを引き出すために必要な事は?

一般に以下が言われていると思う。
 ①対話のドメインを指定すること
 ②手順を指示すること
 ③成果物の形式を指示すること

それぞれのステップで精度を上げる手法をちょびっとブレストしてみる

 ①対話のドメインを指定すること

もっとみる

"Deep Breath"でChatGPTの性能向上が意味する理由とドメイン固有の知識の重要性"


1.前回の話と、"Deep Breath"のファクトを確認

 前回の話は、記事の主題が「ChatGPTを人間のように励ますと性能が上がる」という話で、一方で論文の骨子は、「プロンプト(自然言語)による最適化(Optimization by PROmpiting)」という話だった。

 今回は、"deep breath"が何故効果的なのかを掘り下げて、そこから導かれることを考察する。
 論文をあ

もっとみる

「ChatGPTと深呼吸の関係」の記事分析から考えたこと。

内容

きっかけ: 「"深呼吸して"と指示すると性能が上がる」記事と私の懐疑的な見解

ファクトチェック1:記事と論文の関係性の整理

ファクトチェック2:ChatGPTを使って各記事の要約(日本語記事、英語記事、論文)

ファクトチェック3:ChatGPTを使った要約手法の再考

考察:AIを使う際に考慮することはなんだろう。

1.きっかけ: 「"深呼吸して"と指示すると性能が上がる」記事と私

もっとみる

ChatGPTは忘れる、CodeInterpreterは忘れない(動いている限りは)

はじめに前回の考察で、関数をもっとバリバリ定義して使えば、CodeInterpreterの実行ミスが減るのではと思ったので、それをやる話

そもそもトークン上限を超えると何が問題かCodeInterpreterで生成したプログラムに関して言えば、トークン上限を超えると、作成した変数名や関数名を忘れてエラーが頻発する。具体的には存在しない変数名や関数名を参照してしまう。だからCustomInstru

もっとみる

トークン上限を超える処理の実例(ChatGPT)

はじめに前回、CodeInterpreterの動きを考えていて、トークン上限を超える文章の分割とまとめに使えるなーと言ってた件↓を、今回は実際にやってみた話

事例概要:文章の要約対象サイト:松岡正剛の千夜千冊 1598夜
     『不思議の国のアリス/鏡の国のアリス』
URL :https://1000ya.isis.ne.jp/1598.html

全トークン数:
  Tokens   2

もっとみる

Code Interpreter動作予想図とトークン上限との闘い再び?

1.まずは動作の全体イメージからまず簡略化したらこんなイメージではないかと。

LLM本体はステートレス(状態・情報を保持しない)のがポイントかと思っている。

実際はもっと細かいと思ったので修正

Plugin部は、CodeInterpreter以外のPluginも同様と思われる。その先も。

OpenAIの公式ドキュメント見てたら、ちょっと違ったのでさらに修正

なんと、pluginに使う条件

もっとみる

ChatGPTの「custom instructionsとトークン上限」について考えたこと

※情報の正確性について責任持てません(笑)

■その1:トークン上限を超える時のChatGPTの使い方について

前提:基本は、トークン上限が大きいモデルを使えば解決。一番楽。

条件1:トークン上限を超えた会話をする、かつ過去履歴は不要の場合

`custom instructions`に条件を記載するのはとても有用
※クイズ出題とか

条件2:トークン上限を超えた会話をする、かつ過去履歴が必要

もっとみる

2022年振り返り…というか感じたこと

2022年に強く実感したことは、
「誰もが世界を作れる時代が到来/ではどんな世界を作りますか?」がいよいよ現実になったこと。

より正確には「誰もが世界を作れる時代が到来」とは
仮想世界を作り、国境を越えて繋がることが、ついに"コモデティ化"してきたこと。

まず、その要素の一つ目がAIの進化。
契機となったのが、8/24 Midjourney(自動で画像を生成するAIでクオリティがとてもとても高

もっとみる