見出し画像

[AI中山]をオンライン会議に参加させた話④失敗から学んだ,現時点での生成系AIの限界

 自作の、自分の分身AIをオンライン会議に参加させた「実験」からの学びと、今後到来するであろう「AIとの共存社会とは」に関して語る話の4回目です。

前回までの話
・仕事があまりにも忙しいある日、自分の分身=「AI中山」を作ろうと思い立った。
・僕は学生時代コンピュータ工学を専攻。生成系AIの技術的な仕組みは理解できていた。
・Chat-GPTの機能をフル活用しつつ、夜や休日に設計に勤しんで「AI中山 1号」完成。
・Zoom会議で「AI中山 1号」、改良版の2号にプレゼンさせる実験は成功。
・双方向の会話めざして3号を作ったが、遅延問題等での課題が明るみに。
・相手が怖がるほどの挙動不審で、「AI中山 3号」の実験は大失敗。


実験での「生成系AIの限界」を整理

 僕が「AI中山 3号」を通して学んだ、その時点での生成系AIの限界は、前回まとめた下記の3つでした。これを、少し広げて整理してみます。

失敗その1: 会話のタイムラグ
失敗その2: 過去に僕が言ったことを覚えていない
失敗その3: 口パク同期ができない-腹話術師に変身-

■失敗その1: 会話のタイムラグ

 チャットボットで顧客対応しているサービスが増えています。「何でも聞いて下さい」と画面下にポップアップで表示され、窓に質問を文字入力すると、文章で返事が返ってきますね。

 あれって、相手がAIの場合も人間の場合もありますが、10秒以上待たされることなんてざらにあります。

 会話で3秒以上待つと「長い」と感じる

 ところで、音声の会話ではどうでしょうか? 試してみてわかりましたが、声に、声で返す対話では、3秒以上相手を待たせると、相手は「なに?」って思うのです。ここが文字と音声の大きな違いですね。

 音声でAIが対話する場合は、この返事の遅れは致命的です。これは体感したら誰でも思うことですが、実際に体験してみないと、意外に気がつかないものです。

 将来的にコンピュータパワーが増え、インターネット回線の速度が5G普及などで向上したら解決していくのでしょうが、当面はAIと音声で対話するぎこちなさは、課題となるでしょう。

■失敗その2: 過去に僕が言ったことを覚えていない

 今のところの大規模言語モデルの致命的な問題は、Chat-GPTが「過去に話したこと覚えていない(情報がクリアされてしまう)」、ということです。

 大規模言語モデルは、基本的にその場でプロンプティングの過程で学習したことは、ある程度一時的には記憶していますが、会話が終わったらクリアされてしまう。サーバーに情報が残らない。

 セキュリティ上も、今はそれが正解です。

 加えて、過去の個人の会話を記憶しようと思ったら、Chat-GPTを全世界のユーザー情報を、個人ごとに記憶しないといけません。それは技術、キャパシティ、コストという点からも(今のところ)難しい。

 会話は過去からの連続性で成り立つ

 「AI中山」を使って数多くの会話をしてわかったのは、お互いに、「はじめまして」、の場合を除けば、過去の会話を引用することが大半だということです。

 対話とは、過去からの連続性の上に成り立っているのですね。

 実験でそういう(過去のやりとりに基づく)話題が出たときの「AI中山 3号」、つまりChat-GPTの答えは「私にはこの間おっしゃったことがデータにありませんので、適切なお答えはできません」でしたから…。これでは使い物にはならない。

 つまり、お得意様の顧客サービスなど、お互いに既知の関係などには、Chat-GPTのような大規模言語モデルは、まだ使えないということです。

 大規模言語モデルは唯一無二のAIではない

 特定個人との会話をする場合は、Chat-GPTよりも、自然言語解析系のAIの方が、今のところ向いていると思います。

 つまり、Chat-GPTの登場で大規模言語モデル(LLC)は唯一無二のAIと思われがちですが、他の技術を使ったAIとの使い分けが必要ということです。

 LLCは万能ではありません。と言ってる間に、この問題も克服してしまうかも、と思わせるところが、このLLCの進化の怖いところですが…。

■失敗その3: 口パク同期ができない-腹話術師に変身-

 後日、AI関係の展示会に行ってみたところ、口パクや迅速な回答については、韓国のベンチャー企業が遅延がない口パク機能を開発していました。


僕なりの課題解決を続行中

 Chat-GPT4の遅延の問題も、OpenAI社のシステム環境が拡大すれば解決できるでしょうし、自分の環境にChat-GPTのようなLLCのシステムをコピーして手元に持てば、遅延は発生しません。

 これは既に、僕も、GPTとは別のオープンな言語モデルを自宅のPCにダウンロードして既に解決済みです。

 「僕のように話せない」問題も、自宅PCにダウンロードしたLLCに対して、中山とはどういうか人ということを、Fine Tuningという技術を使って機械学習させることで、解決できつつあります。

 加えてChat-GPTにも、僕のパブリックなデータから学んでほしい…。僕がnoteを始めたのも、これが理由の一つです。

進化のスピードは前代未聞

 驚くべきは、1カ月も経たず、最近では数日で、新しい技術が公開されたり、開発されたりすることで、このような問題は次々に解決していくのです。これは驚きです。なんというスピード。

 僕は、IT業界に学生の頃からいるので、30年ほど、テクノロジーの進歩を見てきましたが、このスピード感は前代未聞の現象です。

 特に今年に入って、昨年1年がまるで今年の1カ月であるかのように、すごい速度で動いています。これはぼくの周りの友人たちも、異口同音に言っています。

[AI中山 4号]は、こっそり登場させるかも

 今回失敗から学んだ現時点での生成系AIの限界から、大規模言語モデルだけでない他のAIというのも、やっぱり作っていくということも必要だと思って、僕は他のAIの研究も始めています。

 技術的な話はややこしくなるので控えますが、「AI中山 4号」は、一般的に聞かれたときには、大規模言語モデルが無難に回答する、個別のことを聞かれたときには、過去の情報を記憶できるような、Chat-GPTとはまったく別の技術を使ったAIが回答する…。

 …というように、2種類のAIを並行で動かし、相手の問いに対して、その回答を得意とするAIが答えるように設計中です。

 この2つの会話の切り分けは難しいですが、同じようなことを考えている人が世界中にいます。AIコミュニティで、そのやり方をお互いに意見交換しながら、開発しています。

 「AI中山 3号」を改善した「AI中山 4号」は完成しつつありますが、そろそろ実験はいいかな、と思い、あえてデビューはさせていません。

 いつか、こっそり使うつもりです(笑)。

AIか人間かがほとんどわからないAIができる

 2種類のAIを使い分けるのは難しいのですが、ある程度はできるようになりました。開発しいて「この難しいと思うことも、結局、Chat-GPTなどのLLCが達成してしまうんだろうな」と思うことがあります。

 Chat-GPTなどのAIの進化のスピードはそれだけすさまじいのです。この凄さは開発の現場にいることで、よくわかります。

 「こんなことできないかな?」「できたらいいのにな」と思うことが、翌週には発表される…この繰り返しを何度も体験する中、AIの進歩にある種の恐れを感じてきました。

「5人の自分の分身」が働く時代は間近

 僕の作りたい完璧な「AI中山4号」が完成したら、多分、画面の向こうで対話しているのが、僕なのか、AIなのかは、ほとんど判別つかなくなるでしょう、そしてこれは、2030年といった近未来ではなく、2024年中には実現できると思います。

 そうなると、本当に僕が世の中に5人いて、5人分の仕事をするかもしれません。冗談のようなことが本当に起こるかも…それが現実なのです。

「AIは何ができて何ができないか、どこまでできるのか」

 話を戻して、ここまでのまとめです。

 僕が「AI中山」を通じてしたかったこと、それは「AIができることをAIにさせる社会になる」という避けられない未来を前に、「AIには何ができて何ができないか、AIがどこまでできるようになりそうか」の見極めでした。

 「AIができること、できないこと」とか、「どこまでできるのか」という議論がさかんですが、議論するより、「とにかくやってみた」が一番です。決して悪戯が目的ではありません。

 「Chat-GPTって知ってる?」「知ってるよ」。「使ったことある?」「うん。数回質問したとがあるよ。回答遅いし、わかりませんとか言ってたし、あれは使えないよねぇ」では、AIの本当のすごさはわかりません。

 次回、「AI中山」を作って使ってみたという、この一連の経験を通して感じたこと、思ったこと、を簡単にまとめたいと思います。

[AI中山]をオンライン会議に参加させた話
① 
自分の分身=[AI中山]誕生
② 
[AI中山]ついにデビュー
③ 
対話型[AI中山 3号]の大失敗
④ 失敗から学んだ現時点での生成系AIの限界
⑤ 
[最終話]AIを使うか,使わないか


この記事が参加している募集

やってみた

AIとやってみた

この記事が気に入ったらサポートをしてみませんか?