GoogleのGenerative AI Summit Osakaに参加しました!
先週になりますが、12月14日に大阪で開催されたGoogle Cloud主催のGenerative AI Summit Osakaに参加しました。アンケートに答えると、もれなく「ワタシハ生成AIチョットデキル」Tシャツがもらえました。はいカッコいいですね。子供に見せたら取られました(XLなのに大丈夫か・・・)。
参加した感想としては、これまでOpenAIのChatGPTを中心にいろいろ触ってきた私ですが、やはりクラウド連携した生成AIを触ることで、「より」、企業の持つデータを使って、課題を解決できる可能性が広げられることが実感できました。BigQueryとの連携で非構造データを構造データにして分析に使うとか、そういう簡単な部分ですら「マジかー!!」と思わされた私。
参加前までは「自前のプログラムでいろいろ動かせるので、クラウド移行とかもう少しやることが大変になってからやな」と思ってました。しかし参加後の今「クラウドさんの力を借りて、データをため込みそこから価値を引き出すんや!!!一秒でも早く!!!」という心境に至り、早速GCPの資格を取る決意をしました。
今回の記事では、そんな思いに至らせてくれたイベントの、気になったセッションの自分メモを残しておきます。
ちなみに、イベント資料・動画もアップされているようです。気になった方はぜひそれらをチェックしてみてください。
イベントページ: Generative AI Summit Osaka:
資料ページ: https://cloudonair.withgoogle.com/events/generative-ai-summit-osaka-23q4/resources#
気になったセッション
実践 生成AI
タイムテーブルへのリンク:
https://cloudonair.withgoogle.com/events/generative-ai-summit-osaka-23q4?talk=session1
このセッションではGCP上のAIプラットフォームVertex AIにおける、生成AIのエコシステムの商品紹介並びに、生成AIソリューションの開発のお話が聞けました。今回、イベントに参加するにあたり、会社ブログで各社の生成AIエコシステムを調べていきました。それによりツール名とかもわかっていたので、かなりお話も落ち着いて聞くことが出来ました。
ちなみに会社ブログは「ビジネスの未来を塗り替える生成AI:主要クラウドプラットフォームの最新動向」という記事です。https://www.chomoku.info/blogs/20231214-generative-ai-business-transformation
さて、セッションにお話を戻すと、生成AIソリューションを作る際の課題、それは「ハルシネーション」です。ハルシネーションを避けるために生成AIモデルに対して次の手段がとられます。
プロンプト
ファインチューニング
グランディング
プロンプトは「自然言語で指示を与える」ことを指します。これを上手く与えることにより、ハルシネーションは防げますが、プロンプトを与えられる量に限界があります。量を多くする場合次の二つの方法が必要になります。
ファインチューニングは、新たなデータを使ってモデルのパラメータを効率的にします。ここで興味深かったのは、ファインチューニングは知識を新たに習得させることにはあまり適さず、どちらかというとモデルのふるまいを安定させるために使った方が効果的だということです。こういうことを言わないみたいな感じですね。
グラウンディングは、回答する情報を信頼できるソースから参照するプロセスを指します。通常RAG(Retrieval Augmented Generation)といわれるステップを、グラウンディングと言っているような感じですね。オリジナルな知識を追加するには、ここを頑張るのが良いみたいでした。
グラウンディングにはVertex AI Search and Conversationという8月に出たツールがあります。このツールは現地で見せてもらいましたが、GCS(Google Cloud Storage)に入れてるデータを検索して回答してくれます。とんでもなかったです。
というような感じでエコシステムを知りながら、実践のための知識を拡張できる非常に有用なセッションでした。
生成AI時代のデータエンジニアリング
タイムテーブルへのリンク: https://cloudonair.withgoogle.com/events/generative-ai-summit-osaka-23q4?talk=session2
データエンジニアリング(データ作り)を頑張っていると勝ち目が出てくるのでは?と思っている私には、興味津々のセッションでした。生成AI時代は非構造化データの分析が容易になります。会場ではBigQueryに入った音声ファイルの文字起こしをして、そこから生成AIでポジネガ判定するみたいなことが行われていました。
イヤー確かに、色々コード書かなくてもやってくれる凄さってのは、ちょっとした気になったことをやる動機になりますよね。
例えば、私は名刺データを最近Google Keepというメモツールに入れて文字起こしできることを知り入れたのですが、名刺に入っているデータの順番は各社ぐちゃぐちゃなので、そこから営業リストに突っ込むのはいろいろ処理が面倒です。でも生成AIになら、会社名っぽいのは会社名に分けてみたいなことを伝えたら分けてくれてデータ化がすぐできそうです。こういうのをこれまでのMLで作るのは結構大変だったと思うのですが、かなり容易にできるマルチモーダルホントにすごい。これは近いうちにやってみたいと思っています。
そのほかには、BigQueryでもSQL生成にLLMが使えるようになるので、今後はノンプログラマーでも容易に自分の知りたいことを分析できるようになるというようなことも指摘されてました。すごいわ!!!
生成 AI を活用した検索アプリやチャットボットを迅速に開発する 〜Vertex AI Search and Conversation 紹介〜
タイムテーブルへのリンク: https://cloudonair.withgoogle.com/events/generative-ai-summit-osaka-23q4?talk=session3
そして、Vertex AI Search and Conversationです。これは、まえにも触れたように検索するデータを追加して、そのデータを参照して生成するグラウンディング部分を実現するツールです。そのデータもGCSやBigQuery、公開ウェブサイトなど、様々なものをデータソースとして使えます。
簡単に言うと、GPTsが会社のデータを使ってもっと簡単に作れるみたいな感じですね。これを使うだけで簡単にサービスにつなげるみたいです。すごい。
まとめ
というわけで、Generative AI Summit Osakaのイベントで私がメモっておきたい部分を取り上げました。
私は今まで、fine-tuningとRAGの使い分けとか考えられていなかったので、ふるまいの安定にfine-tuningを使って、知識の拡張にはRAGが良いというのは本当に良い学びでした。
そのほかにも書いたようにいろいろ学びがあったのですが、一番良かったと思うのはクラウドの凄さが感じられたところです。今までもいろいろ楽になるツールがあるなと思っていたんですが、自分の規模では今一つ移行してもメリットが感じられないかなぁと思っていました。しかし、今回のイベントで色々なセッションを聞いて思ったのが、様々なツールが揃っていてそれらがAIツール化したときの凄さでした。マルチモーダルなツールになったときの凄さったら、もう地道にツールを自前で作るのではくらべものにはなりません。
というわけで、ちょっと遅ればせながら、クラウド移行しようと思ういいきっかけになりました。またその周辺の知識を追加しながら、生成AIの知識も増やしていければ、相乗効果で良いものが作れそうだなという気付きになったというで、今回のイベント参加は私にとって一つの分岐点になるであろうイベントでした。Google Cloudの皆様、素敵なイベントをありがとうございました。
生成AIに詳しくなりたいと思われた方には、日本のトップAI企業のPreffered Networkを経営されている岡野原さんの「大規模言語モデルは新たな知能か ChatGPTが変えた世界」がおすすめです。
この記事が気に入ったらサポートをしてみませんか?