見出し画像

私とLLMと2023: 今後のAI-UXの話

LayerX CTOの松本です。皆様年の瀬いかがお過ごしでしょうか。私は余ったふるさと納税枠を使ってひたすらクラフトビールを漁る毎日です。おすすめあったら教えてください。

さて、今回は先日登壇したLLM in Productionでの発表内容を元に、AI・LLM事業部の立ち上げなどを通じて感じた、私の目線からみた2023年のLLMの大雑把な振り返りと来年についてお話をさせていただこうかと思います。

ちなみに会社全体としての振り返りはこちらを御覧ください。

3行まとめ

  • 2023年はLLMの低価格化と高精度化の双方が進み事業活用を進めてきたとても楽しい1年でした。

  • 一方で、LLMのコスト・処理速度・精度などの制約を踏まえると、実際に事業で役立つ活用の範囲は限定的、よい取り組みを探してLayerXでは長文処理にたどり着きました。

  • 2024年はAI-UXの年。LLMによって誰もがAI的機能を作る事ができるようになりましたが、LLMの性質を活かしてどのような体験を作るかが焦点となるのではと思います。

LLMとともにあった2023年

ちょうど1年ほど前、ChatGPTがリリースされました。そこから約1年、1エンジニアとしてはLLMばかりを追いかけていたように思います。特に序盤の2023年の1月〜3月は毎日発表される刺激的なリリースや論文、各所から登場する斬新なアプリケーションアイディアに夜も眠れない日々が続いていました。当時、Chatベースで面接官botやAgent、記事要約など細々したツールを色々作りつつ個人開発しまくっていた記憶があります。

その後の進化の中でも、事業化に踏み切った重要なポイントが2023年3月の
・gpt-3.5-turboの登場による低価格化
・gpt-4の登場による推論能力の飛躍的向上
にあったように思います。特にgpt-4は、これまでにそう簡単には実現出来なかった高度な指示に基づく情報抽出や、ReActのような外部ツールと連携した自律的な処理機構(Agent)を可能にしました。

以降も低価格なモデル、高精度なモデルが登場し続け、現在では例えばOpenAIでも2023年1月当時と比べてgpt-3系モデルのコストは1/10まで低下しました。gpt-4もgpt-4-turbo登場により1/3までコストは低下しています。実運用において、まだ広く使うには処理回数の上限などの制約はありますが場所を選べば十分活用可能な状況に来ています。

我々としては4月のLLM Labsの設立から「とにかくこのgpt-4の性能を活かしていく」という発想の元、Chat以外のユースケースを探索し、結果として長文処理に行き着きました。

文書処理の概略

振り返ってみれば、元々、AI-SaaSと名乗ることもある弊社サービスのバクラクを通じて帳票等の文書を中心としたAI−OCRによる情報抽出をベースにした業務改善に取り組んでいたこともあり、その地続きにある文書処理は想像がし易い、設計上で検討しやすい部分もあったなと思います。

また、コンテキストサイズの増加も大きなファクターであったように思います。年初4000tokens(およそ日本語2~3000文字くらい)しか扱えなかったLLMですが、gpt-4-turboで100k tokens、Claude2で200k tokensという巨大な文書が扱えるようになっています。今後もコンテキストサイズが大きいモデルは順次登場するのではないかと予想しています。

マルチモーダル系・その他生成系の進化

我々の取り組みにも一部活用していますが、年末にかけてのmulti-modalモデルや動画等の生成AIの進化も見逃せないものだと思います。特にmulti-modalモデルは、年末のgeminiの登場によって、(もちろん発表動画そのままが実現できるわけではないものの)動画や音声等を地続きに扱えるLLMというのが今後増加するであろうことを予想しています。

一度実現した技術は、1年内には色々な企業によって実現される、というのがよくある話で、来年は他各社のLLMにおいても現実的に使えるmulti-modalモデルが増えていくのではないでしょうか。画像の意味を扱えるモデルというのは想像以上に用途が広く、例えば我々の業務においては帳票から必要なデータを必要な形で取り出すということはLLMでできるようになるだろうと思っています。

一点注意なのが、自然言語であっても、画像や動画、音声であっても、それぞれは相当に処理コストが高い物となっており、現時点この機能を広く届ける事自体はコストや体験に難ありではというのが感覚としてあります。例えば帳票のOCRが可能になる、と書きましたがバクラクのAI-OCRは専用モデルであり、その処理速度などに相当の努力を重ねている結果処理速度は早く、またコストも低く、その上でも実用的な精度を実現しています。

ですので、まだまだ、LLMは適材適所な技術だというのは2023年終わっての感想でもあります。Agentなど面白い概念も存在しますが、私達が取り組んでいる法人向けSaaSの分野で現実的に業務で役立つレベルのものを作るというのはなかなかに限界や課題があり難しい認識を持っています。制約を理解し、適切な機能を探すフェーズが必ず必要となります。

AI-UXの2024年とAI-SaaS

こうした適材適所なLLMですが、この使い方が2024年の大きなテーマの一つになるのではと感じています。私や社内での議論ではこれをAI-UXと呼んでいます。AIを適切にUXに反映する、という概念として捉えてください。

バクラクの開発においては、AI-OCRを溶け込ませUX向上に役立てるという目線でモデルを組み込んできました。MLモデルは基本的にエラーを0にすることが出来ません。MLモデルを100%信頼することなく、よりよいUXを作るには、という問いにtoB SaaSの世界で取り組みしっかりと実現してきたことがバクラクの成長に繋がっていると感じています。

こうしたAIを適切に使う、という概念はこれまでそれほど議論が多くはなかったように思います。SaaSにおいては、この数年で少しずつAI中心な業務プロセスのリデザインを提供する新たな世代のSaaS、AI-SaaSが増えてきた感覚です。

ところで私やCEOの福島を中心に、以前ニュースアプリを開発していたメンバーは、レコメンドアルゴリズムの処理性能や精度をいかにうまくユーザー体験に溶け込ませるかということに注力し、多く経験を積んできました。日々利用いただいているユーザーの皆様の利便性を最大限高めるにはレスポンス速度と精度のバランスが求められます。複雑なモデルよりも単純なモデルで高速なレスポンスを返す、そのためにリアルタイムに50msで記事を選ぶエンジンを作るなど様々な工夫を講じてみると相当なUXのリフトアップがKPIからも見られました。

こうしたUXに資するAIの使い方・勘所が今まさに必要なのではと感じています。LLMが2023年に見せた重要な側面というのが「誰でも自然言語処理アルゴリズムを扱える」という部分だと思います。誰でも使えるが、こういった場合誰もが「トンカチを持った結果全てが釘に見える」という状態に陥ります。

その一例がChatUIの過信ではないかと感じています。Chatはお客様にPromptの設計を委ねるユースケースであり、上手い答えを導けないというBad UXを生み出していたように感じます。Chatを通じたアシスタント提供が本当によいUXかというとそうではなく、お客様の利用負荷を下げ自然に使えるUXの提供が重要なのではないでしょうか。

AIが溶け込むサービスが増える

バクラクやAI・LLM事業部での文書処理アルゴリズムの開発を通じて思うのは、結局ユースケースを丁寧に観察し振り絞った1ボタン、1ファイルアップロードを起点とした処理には、ChatベースのUIは効率の面で勝てないのだなという点です。文字を沢山入力するのはなんだかんだ面倒です。ニュースアプリを作っていたころは、とにかく1タップを削ることに全精力を傾けていました。どんなサービスであれ、入力負荷を高めず良い体験を提供していくことは欠かせない要素です。

おそらく、2024年においてはPhi-2やOrca等の論文を見るに、様々なLLMサービスベンダーが手元の高精度なLLMを活用し、よりよいデータセットを作成、それを元にしたより低コストで十分な精度を持った基盤モデルが登場するだろうと思います。その延長として自社データを活用したFine-Tuning等によるカスタマイズもしやすくなるでしょう。

注目している技術進歩

その結果として、より広くLLMが使われていくのだろうと思います。LLMがアプリケーション開発の基本ツールに入ってきた時、果たしてどのようによいUXを作るべきか、活発な議論が生まれてくるのではないでしょうか。2024年はLLM×UX、AI-UXの年になるのかなと、個人的には感じています。

最後に

バクラクやAI・LLM事業部のプロダクト群では、これまで明確に言語化出来ていませんでしたがAI-UXという概念を追求してきたことがこれまでのプロダクト価値になっていると思っていますし、ここまでの知見を活用して更に高いレベルのUXを生み出していくということに来年もチャレンジしていきます。

また、三井物産デジタル・アセットマネジメントでは大量の文書業務が絡む業務プロセスの中で現在もLLMの活用を積極的に進めています。プロフェッショナルの良きアシスタントとなるAI-UXの追求が進んでいます。

さらに直近では福島の記事にもありますが、営業組織のプロセス改善にもLLM等を積極活用したSales Enablementを進め始めています。エンジニアチームも組織し、営業組織の生産性を高め続ける取り組みが始まり、下記記事の夢想が現実になるのではとワクワクしているところです。

バックオフィスから、営業組織などのフロント側、SaaSなどのお客様に提供する領域まですべての領域でLLMの進化が反映される2024年になっていくと思います。このワクワクするサービスの進化、そのためのAI-UXの追求を続けて行きたく、LayerXでは
・ソフトウェアエンジニア
・プロダクトマネージャ
・プロダクトデザイナー
・コミュニケーションデザイナー
・事業企画
などなど様々なポジションで採用を強化しております。

中途だけでなく新卒採用も積極的に募集しております。

ぜひご興味ある方、一度カジュアルにお話しましょう。

というわけで、大雑把な内容になりましたが、2023年、LLMとともに走りきった1年の振り返りでした。もうちょっと個人的な振り返りもやりたい気持ちがあります。もう一本書くかもしれませんが、皆さま良いお年を。

この記事が気に入ったらサポートをしてみませんか?