見出し画像

Google Cloud Next Tokyo '24 参加レポート

こんにちは!ユートニックの衛藤です!
2024/8/1 ~ 2024/8/2にGoogle Cloud Next Tokyo '24が開催されました。
僕も現地にて参加してきましたので、今回は参加レポートを公開いたします!

会場の様子とともに、特に印象に残ったセッションをいくつかピックアップしたいと思います。


会場の様子

今回はパシフィコ横浜ノースで開催されました。

メイン会場は3スクリーン

ブースもかなり賑わいです。

各展示ブースの様子

Day1

基調講演

生成AIの経済価値は2030年には49.9兆円にまで成長する可能性があるとのこと。
そして生成AIは、「試す時代」から「使う時代」への転換期を迎えています。

AIエージェントと呼ばれる言葉も出てきました。GoogleによるPre Buildで、業務全体をカバーできるものです。これにより、とある企業では5日間で生成AIアプリケーションのプロトタイプを完成させることができたという事例もあるようです。

AIエージェントはVertext AIのAgent Builderで開発可能で、ノーコード・ローコード・フルコードそれぞれ対応可能。
また、Vertext AI Searchでは、グラウンディングという検索結果の根拠づけにも対応されています。これはGoogle検索だけでなく、StorageやSlackなどの連携などにより独自のグラウンディングも可能なようです。

マルチモーダル生成AIであるGeminiも進化しています。今後Geminiに関する処理がすべて日本国内で完結する「Gemini model in Japan」というものも発表されていました。

まさに「生成AIを使う時代」を物語るような製品群の紹介でした。今後さらに様々なプロダクトが登場してくることも予想されるため、定期的にキャッチアップが必要だなと感じています。

同時接続数 185 万人を支えたパルワールドのインフラ最前線

一時期Xでもバズっていたパルワールドさんのインフラ関連セッションです。
利用者が急増し、Google Cloudの費用予測でサーバー代7,000万円になっていたとのこと。(結果最適化によりはるかに安い代金で済んだらしいです・・・すごい)

その頃のネットワークエンジニアはワンオペだったらしい。ちょっと気持ちが分かる気がします。

使っている技術的にはGKE、Spanner、Cloud CDNなど一般的なもので、話としてはPGAdapter廃止によるパフォーマンス向上や負荷試験でRedisが耐えられなかった話などがされていました。

弊社でもビジネス特性上利用者が急増する瞬間等もあるため、ボトルネック分析やコスト最適化などを意識する必要があると思いました。

顧客サービスを革新する生成AI活用事例:最適なパーソナライズで顧客の心を掴むには

LLMの活用についてのセッションです。
LLMの活用については以下3つのステップがあるとのこと。

  1. 汎用的なAIの利用・・・公開されている一般的な知識について回答できるAI

  2. 専門的な知識の探索・・・RAG(Retrieval-Augmented Generation)により社内のテキストデータについて探索ができる

  3. 各種データ知識の統合・・・社内の分析データやツール出力結果をLLMを通じて出力

また、生成AIは決して万能ではなく、以下のようなウィークポイントがあります。

  • ハルシネーション・・・間違った情報の出力

  • 定量分析・・・苦手らしい。たとえば、9.9と9.11どちらが大きいか → 9.11と答えてしまう(数値でなくバージョンと勘違いしている可能性)

  • 再現性が低い・・・プロンプトの指示内容が少しでも違えば違った答えが返ってくる

これらの弊害に対応するため、Function Callingを活用し、社内データに対して問い合わせなどを行うことでより正確な出力が期待できるようになるとのことでした。

なるほど、Function Callingによって生成AIが知らない自社データのアクセスを行うのですね。このあたりの仕組みがこれまでは不明瞭だったため、非常に参考になりました。なお、定量分析が苦手というのは少し意外な結果でした。

Day2

基調講演

Day2の基調講演も生成AIメインでした。現在の生成AIの課題はハルシネーション。AIエージェントにより、システム連携や意図を理解することで課題をクリアすることが可能です。

日本テレビでは、コンテクチュアル広告と呼ばれるものを開発した事例が発表されていました。これは動画の内容をAIにより理解させ、その内容に沿った広告を出すというもの。たとえば、動画の中にエッフェル塔があった場合にパリ旅行の広告を出す、といった具合です。これを実現するために、Geminiの連携とFunctions Callingによる社内データの検索も行っているようです。

次にデータエージェントの話です。データエージェントはデータから何らかのシグナルを見出し次の行動へとつなげるためのエージェントです。
ついにBigQueryにもGeminiが搭載され、BigQuery Data Canvasにより視覚的にデータ探索を行ったり、クエリの生成を自然言語で実現したり、といったことが可能になります。Vector indexのサポートによりVertext AIからベクトル検索も可能になるようです。このあたりはまた改めて調べてみたいと思います。
他にも、Gemini in Lookerが登場し、スライドレポートの自動生成や数式アシスタントなど便利な機能が追加されました。

データベース関連では、Spannerに関する発表がメインでした。Spanner Graphや、Spannerの全文検索(ベクトル検索)のサポートによりセマンティック検索ができるようになるようです。今回触れられてはいませんでしたが、Firestoreもベクトル検索がサポートされたため、Vertext AI Searchからつなぎこめば、全文検索ができるようになるかと思われます。

Cloud Run で構築する生成 AI アプリと RAG の実践

RagとはRetrieval-Augumented Generationの略で、質の高いアプリケーションを提供するために不可欠な技術です。LLMの出力の質を高めるため、モデルが学習していない知識にアクセスできるようにすることで実現します。
ここで使われる技術がベクトル検索というもので、検索したいデータを数値ベクトルに変換します。

そしてVertex AI Embeddings for Textにより、セマンティック検索が可能になります。意味的な類似性でランク付けされた検索結果が得られるため、自然言語であいまいに問い合わせをすることもできます。

Firestoreでもベクトル検索がサポートされ、用途をあまり理解していませんでしたが、Vertex AIと組み合わせることで検索が便利になりそうなことが分かりました。このあたりは後日試してみたいと思っています。

引越にゃんこ大戦争ー運営中のゲームを Google Cloud に移行するためにしたこと

人気ゲーム、にゃんこ大戦争のインフラをAWSからGoogle Cloudに無停止マイグレーションした話です。以前利用していたAuroraの毎年のメンテナンスが大変だったことから移行を検討し始めたとのこと。
DBはSpannerを選定、実行環境はBeanstalkからCloudRunに移行しました。

データのマイグレーションでは、無停止を実現するため、ユーザーがアクセスした際に自動的にDB移行する方式を取ることで対応したとのことでした。
また負荷テストではGKE Autopilot + locustで行い、ボトルネックはCloud Traceで探したのこと。
このあたりは役立ちそうなので後ほど調べてみようと思っています。弊社アプリケーションでのボトルネック分析にも役立つかと思われます。

【AI×運用】AIを活用した障害対応の効率化実現方法

一昔前は、単一コンポーネントを運用・監視しておけばよかったですが、時代はコンテナ運用が主流となり、マイクロサービス化によりさらに複雑な構成になってきたため、大変になってきています。
複雑な構成であればあるほど、マニュアル化も難しく、人のスキルに依存するところが大きくなってしまいます。

そこで、AIによる異常予知を実現するため、ログをVertex AIにinputし、仮説的な補助情報をoutputすることで、大幅に障害対応時間を減らすことを実現したとのこと。これにより障害対応で1時間を超えていたものが30分以内で収まるようにもなったようです。
また、output情報では、RAGにより自社ノウハウを蓄積したナレッジベースにアクセスすることで、より正確な補助情報を出せるようにしているとのことです。

こんなところでも生成AIが活躍できるのかと感心しました。確かにこの時代の複雑構成の障害対応は大変なものです。RAGと組み合わせることでより正確な補助情報を出力してくれるのはたしかに障害対応時間の短縮に繋がりそうですね。

おまけ

各種ブースで印象に残ったものの写真を撮ってきましたので載せておきます。

BigQuery data canvasです。このように視覚的にBigQueryのデータ分析が可能になります。最終的にはグラフ出力なども自然言語で指示することができています。

BigQuery data canvas

Raspberry Piと連携し、ミニカーのログをリアルタイムでBigQueryに保存、BigQueryでは自然言語でクエリの組み立てを行っていました。こういう遊び心のあるデモは惹かれますね。

BigQuery Racing Insights

RAG(Retrieval-Augumented Generation)の説明。

Geminiによる生成的推薦とRAG

終わりに

以上、Google Cloud Next Tokyo '24の参加レポートでした。生成AIに関するセッションがやはり多く、基調講演でも触れられていた「生成AIを試す時代から使う時代へ」というキーワードを強く感じるイベントでした。

今回のイベントで、いろいろと生成AIを導入するイメージが湧いてきたこともあり、まずは社内業務改善などを目指して実際に試していければと思っています。

丸2日間、イベントへの参加を快く後押ししてくれた会社やバックアップしてくれたメンバーに感謝です!また来年も参加したいと思いました。

では!


この記事が気に入ったらサポートをしてみませんか?