見出し画像

AI企業の非エンジニア社長が考えるChatGPTの与える影響

今までずっと野球に関するnoteを書いてきたので改めて自己紹介させていただくと株式会社Knowhere代表の伊藤と申します。

今は野球に特化したジムをやっているのですが裏側ではAIを活かしたソフトウェアをゴリゴリ開発していたり(もうそろそろお披露目できます)、前職のHEROZという会社ではAI事業でBizDevをやっており、様々な企業様ににAIを導入するというお仕事をやっておりました。なのでいわゆるAI業界には10年近く関わっており、比較的長い方なのではと思っております。

そこで今回はそんな僕が思うChatGPTが与える影響についてお話できればと思います。普段はこういうの良くも悪くも冷静に見ているだけなのですが今回はかなり凄いと思っているので書くことにしました笑

ゲームチェンジャーとしてのLLM

まずそもそもでLLM(大規模言語モデル)というのがこの業界が長い人間からすると割とぶっ壊れています。ぶっ壊れているというかいきなり後ろから頭を殴られたような衝撃を受けました。

なぜならこの業界には昔から「過学習」という概念があり、必ずしもモデルサイズ(パラメータ数)が大きい=正しいというわけではなく、むしろモデルサイズが大きくなることで扱いが難しくなり、精度が下がってしまう可能性があるというお話が一般的だったからです。詳しくは下記を参照ください。

つまりは、コンピュータ(GPU)にお金を掛けてモデルサイズで戦うのではなく、データを上手く扱える人間こそがより重要であり、褒め称えられるという風潮があったのは否定出来ないかと思います。後述しますがコンピュータ(GPU)ってとっても高いので、なるべくお金掛けないで上手くやるってのはどの会社や業界でも良いお話かなと…。

もっと具体的な例で言うと、皆さんディープラーニングという単語を聞いたことがあるのではないでしょうか?おそらくAI業界におけるLLMより1つ前の大きな発見はまさにこのディープラーニングであり、なぜそのディープラーニングがこれほどまでに注目されたかというとこの「データを上手く扱える」という点に関連しています。

それまでの機械学習は人間が特徴量と言われるパラメータを指定し、その特徴量に応じて学習していくというのが一般的なアプローチでした。ディープラーニングでは人間がその特徴量を指定する必要はなく、AI自身が勝手に学習して答えを導き出すという点が画期的であり、「人間ではなくAIがデータを上手く扱えるようになった」ということで衝撃を与えました。

ただ、ディープラーニングにおいても「過学習」というものが解決されたわけではなく、ある程度はモデルサイズやデータなどは人間が取捨選択する必要がありました。

価値観の大きな転換

LLM登場前のAI業界においてはデータを上手く扱える人間の価値が非常に高かったとも言えます。が、今回のLLMの登場でそういった考えの多くが覆ってしまった可能性が高いです。(厳密に言うとLLMが登場する前からその波がじわじわと来ていたのですがLLMの登場で顕著に。)

もっとわかりやすく言えば「データを上手く扱える」から「より大きなモデルを処理できる」の価値の比重がより高くなってしまったことです。

これではまだわかりづらいかもしれませんが、モデルが大きくなれば必然的にデータ量を増やすことが出来ますし、データ量を増やすことでより精度が上がることも証明されています。人間が脳で処理できる情報やデータの量に個体差はほぼなく、コンピュータ(GPU)が処理出来る情報やデータ量に比べれば人間の個体差はほぼ皆無と言っても過言ではないでしょう。

つまりは「より大きなモデルを処理できる」というのは人間ではなく、コンピュータ(GPU)に依存するということです。

そんなの当たり前じゃんと思われるかもしれませんが、ここには非常に重要な話が隠れています。それはコンピュータ(GPU)はお金があれば買うことができるということです。「データを上手く扱える」というのは人間への依存度がそこそこ高いとお話しました。経営者やマネージャーなどをされている皆さんであればわかると思いますが良い人材を採用するのはとっても大変です。仮に大谷翔平さんを獲得する予算があったとしても必ず自社に来てくれるとは限らず、来てくれたとしても自社の戦略やカルチャーにマッチするかなど大きな不確定要素があります。

一方で、コンピュータ(GPU)は買って電力供給さえできれば動かすことが出来、故障するまでしっかりと働いてくれます。(少し割高ですがクラウドにすれば故障のリスクまで逓減!)

今までは優秀な人がいなければ問題が解決が出来なくて手詰まりというケースでも、このコンピュータ(GPU)さえ買えればある程度の問題が解決できてしまうというのがまさに僕が今回のLLMの登場で1番衝撃を受けていることです。(もちろんLLM登場後でもしっかりと価値が出せる人はいますので良い人材を採用するということを否定しているわけではありません。)

非AI企業のGPU投資が必須に?

実際に触っている皆さんであればお気付きかと思いますが、今回のLLM登場の衝撃は凄まじく、何かしらビジネスとして取り入れる、ないしは脅威になるのは必須で、避けて通れない存在になったと言っても過言ではないでしょう。自分のTwitterのタイムラインでもかつてないほどの勢いを感じています。

結果として、今回のLLM登場によってより多くのコンピュータ(GPU)を保有する、ないしは投資できるというのが必須な戦いになってきたと考えています。

特に今までコンピュータ(GPU)にお金を掛けるということは一部の企業に限られていたことかと思います。弊社はAI企業なので当然オンプレでもクラウドでも日々AIを学習させているのですが、同じことが非AI企業でも必須になってくるのではないかと考えています。(そもそもでこのレベルでAIが発達すると全員が何かしらで使うようになり、AI/非AI企業みたいな概念なくなりますが。)

単純な解決策として、その大規模モデルが乗る計算環境を構築することができますが、もしそのレベルのスペックをオンプレミスのサーバーで整える場合は数千万円規模になってしまいます。
実践!大規模言語モデル / 1000億パラメータ越えモデルを動かすには?

ただ、LLMは上記の記事にもあるように動かすだけでも数千万レベルの投資が必要となってくるのです。

ちなみにこれもとっても大事な話で動いた=成果が出るわけではありません。AI業界の方ならわかってくれるかと思いますが、学習をさせて一発で成果に結びつくような結果が出ることはほぼなく、何回も何日も学習をさせてアルゴリズムの精度が向上して行き、どれだけ学習させたか忘れてしまった頃合いに成果が出ることが多いです。もっと言えば成果が出ないこともタクサンアリマス…。

つまりは投資をしたから必ずしもすぐその投資に見合ったリターンが返ってくるわけではなく、下手したらそのリターンが返ってこない可能性もあるということです。

果たしてそんな前提の中で数千万、場合によっては数億レベルの投資を出来る会社の経営者がどれぐらいいるのでしょうか。逆に言えばOpenAIはそういった投資が出来たからこそ、ここまで辿り着いたという話ではありますが…。

今後、企業が成長していく上で人材への投資はもちろんのこと、コンピュータ(GPU)に投資できるかどうかも非常に重要になってくると今まで以上に痛感させられる機会になったChatGPTの登場でした。

そんなことを考えながら200万以上するコンピュータ(GPU)を何台買おうか悩んでいる日々でございます笑


この記事が気に入ったらサポートをしてみませんか?