見出し画像

生成AI活用の試行錯誤〜Ubie社での取り組み〜

生成AI

ChatGPTをはじめとするGenerativeAI(生成AI)は、テレビや新聞で見ない日はないくらいに話題になっています。YouTubeでも芸人さんがChatGPTを紹介する動画が多数出ています。(個人的に、芸人かまいたちの「ChatGPTに漫才を作ってもらう」という動画が好きです。)

企業でも、ソフトバンクやNTTなどの大企業が、会社を上げて生成AIの開発・活用をしていくと発表しています。行政においても、横須賀市やつくば市が生成AIを積極的に業務に取り入れようとしています。今後ますます多くの企業・行政・個人が生成AIを活用していくと思います。

このブログ記事では、AI×医療のベンチャー企業Ubieでの生成AI活用の試行錯誤してきた取り組み事例をご紹介します。今後の生成AI活用に少しでもご参考になれば幸いです。(プロダクトへの活用はまだ検証中なため、生成AIによる社内生産性向上の事例がメインになります。)

Ubie社内での取り組み事例

Ubie社内では、2023年の2月頃から、ChatGPTを中心に生成AIの活用を検討するチームを立ち上げて、取り組んでいます。社長直下に約15名が兼務で自分1名が専任という形で参加しています。それぞれのメンバーの役割は以下のとおりです。それぞれの役割を数人が担当しています。主に、「生産性向上」と「プロダクトへの活用」の2つを軸に可能性を追求しています。

取り組みの役割

生産性向上
ChatGPTやNotion AIなどの利用を社内で推進することで、社員の生産性向上を目指します。

プロダクトへの活用
既存・新規のプロダクトに、どのように生成AIを組み込むと、ユーザーに届ける価値を最大化できるかを検討します。

技術検証
ChatGPTのAPIで何ができるのか、自分たちで大規模言語モデル(LLM)を1から作ることができるか(やるべきか)などを検証します。いま技術的に何ができて、今後どのようになっていくかを論文や学会などで情報収集します。

アカウント整備
生成AIを提供するOpenAIやGoogle、Microsoft Azureなどのアカウントを整備します。

リスク最小化
生成AIの利用にあたり、プロダクトの利用規約やプライバシーポリシーの法務的な確認をします。また、国の法整備や業界のルール作りの動向を注視します。

中長期Moat構築
生成AIが今後より浸透していく時代において、会社としてどのような状態であれば、競合優位性を持つMoat(堀)を構築できるかを複数のシナリオをプランニングしながら検討します。

それぞれの役割において、具体的にどのようなことをしているかを、社内生産性向上の事例を中心に紹介します。

生産性向上

生成AIの活用により、社内の生産性向上を目指しています。「社内用ChatGPTツール」「Github Copilot」「NotionAI」「ワークショップ」の4つの取組みをご紹介します。

社内用ChatGPTツールによる生産性向上

背景(課題)
本家のChatGPTは、

  • 入力したデータがAIの学習に使われてしまう

  • ChatGPT Plusは1アカウントあたり月額20ドル

  • プロンプトや結果を簡単に共有できない

という課題があり、社内での利用促進が難しい状態でした(※ 2023年3月時点において)。社内のエンジニアの@八木さんが、一週間ほどでこの課題を解決する社内用ChatGPTツールを作りました。

社内用ChatGPTツールの利点は、下記の通りで先程の課題が解決されています。

  • 機密情報を入力して試せる

    • ChatGPTをAPI経由で呼ぶ場合は、入力データが学習に使われません

  • プロンプトや結果を社内で簡単にURL付きでシェアできる

  • 従量課金なのでコストを抑えられる

    • 現在、200名ほど使っているが月額1万円もいかない

    • Chat GPT Plusなどのサブスクに比べると圧倒的に安上がり

  • 自社業務に特化したカスタマイズができる

    • 社内業務特化な機能

    • 社内のデータベースとの連携

社内用ChatGPTツールの画面

主にエンジニアが利用していて、「生産性が2倍になったと思う」「共有リンクが便利」という声が上がっています。

エンジニア以外の職種の社員も、求人票の下書きや翻訳などの業務でこのツールを活用しています。毎日利用する社員も多数おり、なくてはならないツールとして活用されています。

このツールは一度作っただけで終わりではなく、社内での利用がより促進されるような取り組みも行っています。

  • 各組織へのインストールやトレーニングの設計と実行

  • 社内利用ユーザーのインタビュー、業務インパクトの高い領域の探索

  • ヘビーユーザーを社内の伝道師に任命して、利用促進

  • 利用状況の可視化と分析

各社員の利用件数
利用数の推移

Github Copilotの活用による生産性向上事例

GitHub Copilotは、コードを書くと続きのコードを一瞬にしてサジェストしてくれます。

GitHub Copilotのイメージ図(灰色の部分がサジェスト箇所)

社内でエンジニア向けに、GitHub Copilotを使うことで実際に生産性が向上するかを検証しました。
2ヶ月ほどの検証期間を経て、定性的なアンケートでコーディング業務が平均38%ほど効率的になるという結果になりました。利用者の感想は次のようなものでした。

  • 倍くらいまではいかないが、結構細かなところで生産性向上していると思うのでかなり開発体験が良くなっている

  • Terraformとかあんま詳細に詳しくないケースで、とっかかりになる感じで良い

  • テストや定形の作業をする速度が上がり、ストレスがかなり低減しているのを感じてます!

このGitHub Copilotも、先程の社内用ChatGPTと同様に、「あったらよい」ツールではなく「なくてはならない」ツールとして、社内で利用されています。
ROIとしても、1人当たり$20/月の投資で、生産性が約40%ほど向上することで、月数万〜数十万円のリターンがあり、十分に投資に見合うものになっています。

Notion AIの活用検討

社内のドキュメントはNotionで管理しています。Notion AIを使うと、Notion内のドキュメントを要約したり、翻訳したり、シーケンス図を描いたりしてくれます。2ヶ月ほどNotion AIの無料トライアルを利用して、活用を検証しました。

Notion AI(シーケンス図描画の例)

結果として、我々はNotion AIの利用を見送ることになりました。理由は、次の通りです。

  • 翻訳タスクにはたくさん活用されたが、他の利用ケースがあまりなかった

  • NotionAIの利用は、ユーザーごと課金ではなく、ワークスペース全体での課金

翻訳タスクでは、アウトソースの依頼が減り、コストの削減やスピードの改善に繋がりました。しかし、他の用途(要約やアイデア生成)などは、あまり利用されませんでした。また、Notion AIは、アカウントごとに課金ができず、ワークスペースでの課金(全アカウントに課金)です。そのため、現段階での利用継続はしないことになりました。

今後、ユーザーごとの課金ができるようになったり、Notion AIならではの機能が出てきたりするときに再度検討します。(そもそものNotionの日本語検索の精度がより高まるとすごく嬉しいです。)

GenrativeAI活用のアイデア創出ワークショップ

背景(課題)
社内で生成AIの議論をするときに、「そもそも関心が高く技術的な知見が深いメンバーに議論の参加者が偏りがち」といった状況が生まれていました。そこで、エンジニア以外にも生成AIの現状と未来の可能性を体感してもらうワークショップを複数回開催しました。

ワークショップの目的は以下の通りです。

  • エンジニア系の職種だけでなく、Bizや医師も含めて改めて技術の現在地と未来の可能性を知る

  • 実際にその場でプロトタイプを作って、何ができるかを実感をする

  • 中長期的にGiant Leapな妄想をできるための素地を作り、さらなるアイディア創出をしやすい状況にする

参加者は、ソフトウェアエンジニア、データサイエンティスト、医師、Bizdev、デザイナーの約12名で、異なる専門性を持つメンバーでした。

ワークショップの形式は、たまたまi.schoolというイノベーションの教育プログラムの同窓生が3名在籍していたので、バイアスブレイキング(Break the bias)や強制発想という手法を使って、アイデアを創出しました。

ワークショップの様子
個人ワークの例(ニーズ×シーズの強制発想)

ワークショップの振り返りとして、

  • プロンプトによるプロトタイプでイメージが膨らんだ

  • ワークショップの形式が新鮮で良い刺激になった

  • 業務でも活用したいと前のめりになった

という参加者の声があり、生成AIへの理解度が深まった結果になりました。その後も複数回ワークショップを開催して、社内での生成AIの認識を高める活動をしています。

その他の生産性向上事例

他の生成AIによる生産性向上事例を紹介したいのですが、文量が多くなってしまうため、リンクを貼ってご紹介します。

生産性向上取り組みのまとめ

生産性向上の取り組みで次の3つのポイントを実感するようになりました。

1. しんどいタスクの着手ハードルが下がる
「テストコードを書く」「求人票を書く」「レポートを書く」などのタスクは、重要だけれどちょっとしんどくて、取り掛かるのにちょっとエネルギーがかかります。生成AIを使うと、下書きを瞬時に生成してくれるので、それを修正すれば良いので、1から取り組む場合に比べて、着手ハードルが下がります。

2. 自分の職種を越えたタスクに取り掛かることができる
「医師がChatGPTを活用してiPhoneアプリの作成」「データサイエンティストがMidjourneyを活用してデザイン作成」など、自分のできることが生成AIによって拡張されて取り組みやすくなります。

3. 生産性だけでなく創造性にも寄与する
1つ目と2つ目にも関連するのですが、自分のやりたいことや想像していることを具現化することが生成AIによって高速に容易になり、創造性を発揮しやすい状況になっています。実際にアウトプットの量と幅が広まったことで、創造性の高いものが出てくるようになりました。

プロダクトへの活用

次に、プロダクトへの活用についてご紹介します。ただ、現在検証中のため、詳細の話ではなく、少し抽象度を上げてのご紹介になります。

実プロダクトに組み込むにあたって、「ハルシネーション(幻覚)」と「最適なユーザー体験」という2つの大きな課題を解く必要があります。その2つについて、簡単にご紹介します。

ハルシネーション(幻覚)

ChatGPTは、ときどきそれっぽいけれど正しくないことを出力します。

ChatGPTによる「走れメロス」の間違った解説

この問題は、ハルシネーション(幻覚)問題と呼ばれ、実プロダクトに組み込むときに、重要な課題です。

この問題を解決する方法としては、

  • プロンプトに、必要な情報を埋め込み、その範囲内で回答してもらう

  • 社内のデータベースと連携して、そのデータベース内のみのことしか出力させない

  • 特化したデータでファインチューニングする

  • 実プロダクトに組み込んだときに、その結果が良かったのか悪かったのかフィードバックループを構築

などのアプローチがあります。どれか1つではなく、組み合わせることも重要です。

ベンチャーキャピタルのアンドリーセン・ホロウィッツが提唱しているSynthAI(合成AI)というトレンドも参考になります。

今まではWave 1のGenerative(GenAI)で、プロンプトからアイデア生成などをしていました。Wave 2のSynthesis(SynthAI)では、様々なデータを統合してそこからインサイトを出します。Wave1では、1つのプロンプトから、膨大な量のアイデアを生成してくれますが、質の面で課題がありました。BtoBのサービスを考えるときには、その質の面が特に重要で、それを解決するために、複数のデータソースやモデルを組み合わせて、インサイトを抽出します。

GenAI(生成AI)とSynthAI(合成AI)の概念図

各タスクに求められる正確性(質)を見極めて、それを実現できる方法を探索することが重要です。

最適なユーザー体験

ユーザー体験も当然ながら重要です。ChatGPTでは、ユーザーが自由に文章を入力して回答を得ることができます。一見すると、誰もが使いやすいインターフェースになっています。しかし、Google検索以上に、ChatGPTの自由入力は、ユーザーのリテラシーを要求しているかもしれません。例えば、次のような難しさがあります。

  • ユーザーが自分のしたいことを適切に言語化して、ChatGPTに入力することができるのか

  • ChatGPTの性能を十分に引き出すプロンプトの形式になっているか(例えば、「ステップバイステップに考えて」という指示を加えることで、回答の質が向上すると報告されています)

また、フリーテキストで文章を入力するのは時間がかかったり、疲れたりします。そのため、ボタンをいくつか選択していくだけで、裏側でChatGPTに投げる用のプロンプトが自動構築されるようなユーザー体験が必要になってきます。誰でも、簡単に、必要な情報を入力できるUXが求められます。

「生産性向上」と「プロダクトへの活用」の2つについて、ご紹介しました。次に、その他の取り組みの「技術検証」「アカウント整備」「リスク最小化」「中長期Moat構築」についても簡単にご紹介します。

技術検証

技術調査では、いま何ができて、今後どうなっていくかを調査しています。例えば、大規模言語モデルでは、

  • 1から言語モデルを学習する

  • 公開されている言語モデルをファインチューニングする

  • 言語モデルのAPIを使って、入力プロンプトを工夫する(社内データの連携を前段と後段に挟むなどの工夫も含む)

のような選択肢があります。それぞれの選択肢のメリット・デメリットを整理した上で、社内保有のデータ、予算、AI系人材の人員を掛け合わせて、どの方針を取るかを意思決定しています。弊社では、まずは3番目の方針を現状選択しています。
2番目と3番目の検証の一部はnoteで公開しています。

アカウント整備

生成AIを提供するOpenAIやGoogle、Microsoft Azureなどのアカウントを整備します。生成AI系のサービスは、アカウントを作ってすぐに使えるわけでなく、ウェイティングリストで待たないといけないことも多々あるため、早めに申請しておきます。また、担当者とのリレーションを構築することで、優先的に機能を使わせて頂くこともあります。

今後、生成AIがOpenAIの一強になるかは分かりませんが、それぞれの生成AIの強みを理解した上で使っていくことが大切になってきます。例えば、GoogleがBigQuery上で、LLMを利用できる機能をリリースしました。まだ、日本語は対応していませんが、今後日本語にも対応できると、BigQueryに溜まったデータに対して、SQLで要約やカテゴリ抽出などの処理をできるようになります。既存のシステムやデータとの連携を考慮した際に、どのタスクにはどの生成AIを使用するのが最適なのかを検討しています。

リスク最小化

生成AIは新しい技術のため法整備や業界でのルールがまだ整備されていません。今後の動向を情報収集しながら、業界でのルール作りには積極的に参加していきます。
また、生成AIの利用にあたり、プロダクトの利用規約やプライバシーポリシーの法務的な確認もします。例えば、ChatGPTのAPIを利用すると、データは学習には使用されませんが、アメリカに30日間データが保持されます。それが法務的に問題ないかを確認します。
他にも、社内用ChatGPTで、どのレベルの機密情報なら入力してよいかの整理をして、社内に周知することもしています。

中長期Moat構築

生成AIが今後より浸透していく時代において、会社としてどのような状態であれば、競合優位性を持つMoat(堀)を構築できるかを複数のシナリオをプランニングしながら検討します。特に、Googleからの検索流入がどう変わるのかという点を注視しています。
生成AIは大きなトレンドであるため、投資家からの注目も大きいです。そのため、会社としてどのように生成AIを活用していくかを既存のアセットを最大限活かせる形で、検討しています。

まとめ

Ubie社内での生成AI活用の取り組みをご紹介しました。実際にやり始めることで、初めて分かることが多くありました。この記事が、今後生成AIを活用していく際の一助になりましたらありがたいです。
この記事に書ききれなかったこと・書けなかったことが多数あるので、オフラインで会った際に、ご興味ある方はぜひ会話させてください。

参考にしている資料

良質なネットの資料や書籍がたくさんあり、いつも参考にさせてもらっています。

自民党の「AIの進化と実装に関するプロジェクトチーム」のnote記事

プロジェクト内でのプレゼン資料が公開されています。政府としての今後の取組の方針や有識者の資料は参考になります。

a16zのブログ記事

生成AIの全体的な動向から技術的なアーキテクチャの話まで、幅広く参考になります。

大規模言語モデルは新たな知能か(岩波書店)

大規模言語モデルについての一般書です。数式は出てこなく、ページ数も140ページほどで、サクッと読むことができます。サポートページには、書籍内で紹介されている主要な論文がまとまっていて、こちらも参考になります。

国立情報学研究所のLLM 勉強会

大規模言語モデルを1から学習する際の失敗談などを含め実用的で技術的に高度な内容が共有されています。

Stanford大学の深層学習の自然言語処理の授業資料

深層学習の自然言語処理について、word2vecからTransformersまで最新の話題を含めて解説されています。
Week6の「Prompting, Reinforcement Learning from Human Feedback (by Jesse Mu)」の授業では、RLHFの仕組みが数式付きでわかりやすく解説されています。

Microsoft蒲生さんの資料

LLMのシステムへの組み込み方について解説した資料が非機能要件含めてとても分かりやすく参考になります。

npacaさんのnote記事

新しいツールが出てきたら、翌日には解説記事を執筆されるくらいの速度感で、情報のキャッチアップにとても役立っています。

西見さんのnote記事

LLM系のツールの検証について数多く執筆されていて、参考になります。

尾原さんのコンテンツ

各業界の有識者との対談動画や記事は、今後の生成AIの方向性についての示唆が多く、理解を深めることができます。

openai-cookbook

本家OpenAI社がまとめたベストプラクティス集

ChatGPT Prompt Engineering for Developers 

AI研究の第一人者であるAndrew Ngによるプロンプトエンジニアリングの講座です。また、もう少し技術的な内容の講座も開講されるようです。

コンサル会社のレポート

McKinseyBCGが出しているレポートは、生成AIの今後の見通しを俯瞰するときに参考になります。

Daily Papers

Twitter上で話題になった論文を日別・週別・月別に知ることができるサービスで、重宝していました。ただ、TwitterAPIの課金体系の変更によって、現在は停止しています。(何か変わりのサービスをご存じの方いましたら、教えてください。)

また、ネット上にはない情報もたくさんあり、それはオフラインの勉強会や学会などで、たくさん教えて頂きました。

LLM Meetup Tokyo

参加者全員がデモ必須という勉強会で参加者の熱意がとても高いです。実際にプロダクトに実装する際の試行錯誤が共有されるので参考になります。前回のまとめは、LLM Meetup Tokyo #2 開催レポ&LTまとめ

人形町GenerativeAI勉強会

人形町周辺のUbie、LayerX、10Xのクローズドな勉強会で、オンラインで話せないことを含めて議論ができました。

人工知能学会

東大の岩澤先生による「基盤モデルの技術と展望」のチュートリアルが技術的にとても詳しく参考になりました。

言語処理学会

緊急パネル:ChatGPTで自然言語処理は終わるのか?」などChatGPTの動向や影響について参考になるものがたくさんありました。


この記事が気に入ったらサポートをしてみませんか?