見出し画像

OpenAIとGoogle発表から読み取るべき両社の戦略の違い【後編】

  【前編】では日本時間の5/14火曜日早朝に行われたOpenAIのChat-GPT4oについての発表、【中編】では翌朝の早朝に行われたGoogleのGemini含めたAI新商品についての発表について、それぞれ、注目すべきポイントを書きました。

 今回【後編】は、それらまとめる形で、両社の戦略の違いや、生成AIがこの先どうなっていくのか、を考察してみたいと思います。


 今週にはいって、何人かと話をしましたが、「両社の発表は、マルチモーダルな観点で似ていたけど、GoogleよりもOpenAIの発表に方がインパクトがあったね」といった感想でした。

 僕もそう思いましたが、似ているようで、OpenAIとGoogleは違うな、とも感じました。

GoogleOpenAIとOpenAIの違い

 そもそもですが、Googleは巨大企業、OpenAIはベンチャーです。いくらMicrosoftと提携していても、戦略に違いがあって当然ですよね。

 では何が違うかというと、目指そうとしているビジネスモデルです。

 生成AIというと、Chat-GPTがその代表格なのですが、厳密に言うと、生成AIのエンジンは「GPT4」です。そして、このエンジンを使う、僕たちが見慣れた、ブラウザーの窓に文字を入力するブラウザーで動くアプリ機能が、Chat-GPTです。

 つまり、僕たちユーザーが接しているのは、Chat-GPTというアプリであり、クラウド側で動いているAIのエンジンが、GPT4というAI機能である、ということですね。

 GPTは4というのだから、当然GPT1、GPT2が存在していたわけですが、ご存じの方は、ほとんどいないですよね? それは、GPT1や2には、ユーザとの接点である「アプリ」がなかったからです。

 何が言いたいのかというと、ビジネスでは「ラストワンマイル」と呼ばれますが、どんなAIテクノロジーも、利用者、ユーザーとの接点、そこがないと、利用してもらえません。

Googleの強み 

 その点でいうと、Googleは圧倒的な優位性があります。

 Google検索、G-Mail、は誰もが毎日使ってるでしょうし、GoogleカレンダーやGoogleフォトも、僕たちの日常生活に入り込んでいます。

 それに加えて、androidスマートフォンは、全世界シェアの半分以上を占めます。現時点でにおいてユーザーの接点はパソコンではなくスマホであることを考えると、Googleは、僕たちユーザとの接点をかなり押さえています。

 Googleの今回の発表は、G-Mailとの連携や、検索エンジンへのGeminiの組み込みなどを数多くデモしたのは、AIのエンジンからユーザ接点(アプリ・デバイス)まで、すべてをトータルでAI最適化することで、僕たちの生活をAIで変えるというメッセージでした。

 強者Googleならではの全方位戦略です。

 反して、OpenAIはどうでしょうか? こちらはChat-GPTのブラウザとスマホのモバイル版アプリだけです。

 OpenAIは、GPT4oの性能を前面に打ち出して、そこ1点突破のプレゼンをしていました。そして、開発者向けに、AIのエンジン(GPT4)をAPI経由で安く使える発表をしていました。

 そこに、ユーザー接点やアプリを持たないOpenAIが、生成AIのLLM基盤である「GPT4o」の性能をアピールし、ユーザ接点の持つベンダーやアプリ開発者に対して、AIエコノミー基盤を提供していく、というスタンスを強く感じました。

 もちろん、AIエコノミーの囲い込みのパートナーとしてMicrosoftがいるわけですが、Microsoftも、自社でPhi3という小型の言語モデルを開発したり、仏Mistral社と提携したりしていますよね。

 つまり、Microsoftは、OpenAIとだけ組んでいるわけではない。OpenAIとしては、言語基盤モデルが世界一の性能を誇り、その基盤を最大限、外部企業に利用してもらえるか、が、彼らのとるべき戦略です。

 ですので、夢のあるChat-GPT4oのデモ一本に絞り、開発者や利用者に、AIそのものの機能をアピールすることに徹底したわけです。

Googleはマスへ、OpenAIは企業へ

 要するに、Googleが今回話しかけたのは、消費者を中心としたマスであり、OpenAIは企業、つまりビジネスパーソンへ、とも言えますね。

 もちろん、Googleはビジネス部門もあり、Googleクラウドも持っていますので、消費者(To C)及びビジネス(To B)の両方がターゲットです。しかしGoogleは基本、囲い込みを狙っています。

 対して、OpenAIはMicrosoftを通じて、ビジネスユーザーおよび、開発者をターゲットにしていくしかないでしょう。なので、基盤提供に徹してその上にAIエコノミーを構築したい、という思いが強く感じられました。

 Chat-GPT4oを無料ユーザーに公開する方針に切り替えたのも、がむしゃらにシェアを取りに行きたいからでしょう。

 とにかくシェアを取って、ユーザーに生成AIでのNO.1のかっこたる地位を確立し、その上にデバイスやアプリを他社に作ってもらう、そのため無料化に踏み切ったのですね。


生成AIの進化の方向性① マルチモーダル進化による人間化

 このように両社には戦略上の違いはあります。しかし、共通してプレゼンにて打ち出していたのは、「マルチモーダルの進化」です。

 この、音声、文字、画像、動画を同時に理解し、アウトプットもできる、マルチモーダルを進歩させることで、何ができるかというと、「人」に近づくということにつきます。

 以前も記したように、今までの基盤モデルは、例えば音声でやり取りしても、スピードが遅く、会話に間ができてしまう。間が少しでもあくことで、人は違和感を覚えてしまう。

 今回発表されたChat-GPT4oは、この間を克服しています。さらに、人を人たらしめている、「感情表現」ができるようになった。これはGeminiも同じです。

 今回の発表後、OpenAIのサム・アルトマンが、Xで「her」とつぶやき、話題になっていましたよね。

 僕は、今回の発表をみていて、同じく「her」と同じ世界観だなと感じていましたので、デモはやっぱり映画のオマージュかと合点がいきました。

 この「her/世界でひとつの彼女」は、スパイク・ジョーンズ監督による2013年の作品。人格を持つ最新の人工知能型OSに主人公が恋する映画で話題になりました。今から10年前ですね。


 妻と離別した主人公セオドアが人工知能のサービスに加入し、マイク一体型イヤホンを介して人工知能型OSのサマンサとコミュニケーションができるようになります。

 サマンサは、悩みを聞いて同情したり、励ましたり、胸ポケットに差し込んだ小型レンズで視覚共有をすることで、関係性を築いていくという物語でした。仲良くするだけでなく、時には男女の喧嘩になったりもします。

 両社のデモはまさに、同じ世界観を描いていました。

 このマルチモーダル機能の進化と、感情表現を音声でできるようになったこと、そして、応答のレスポンスが向上したことが相まって、AIがより人らしい会話をすることに近づいたというわけです。


生成AIの進化の方向性② 大規模アクション モデル

 もう1つの注目点は、人から指示されたことに対して、単に、言葉や音声を出力するのではなくて、具体的なアクション=行動を起こすように進化し出したことです。

 これは、僕が前に記していたエージェント機能と呼ばれているものです。

 先のGoogleの発表で「ECで買った靴の返品したい」というデモがありました。返品したい商品の写真をスマホで撮り、「返品したい」と言うだけで、購入履歴をG-Mailから探し、返品メールを出して、返品スケジュールをカレンダーに記録する、までを、AIが行っていましたが、これはまさにAIが行動を起こしているわけですね。

 これは、大規模アクション モデル (LAM)と呼ばれています。つまり言語を扱うだけでなく、行動を扱う、起こすAI基盤という意味です。

 今のところは、LAMは人がある程度設定する必要がありますが、近い将来、指示されたことに対して、自分でその指示を完結するには何をどのような順番ですればいいかを考え、行動する、自律型のAIになるでしょう。

 これは、自律型AIエージェント、と呼びます。

 より人と同じような挙動で、感情を持って(正確には感情を持ったふるまいをして)、1言えば10動くようなAIが、今年、来年に実現化することが、今回のOpenAIとGoogleの発表から読み取れました

 その先には、いよいよ汎用人工知能「AGI」が登場する、そんな未来を想起させるのに十分な発表でした。

 生成AIの進歩は、僕の予想をまた超える進化をしました。

 AGIの到来は、2030年より前に来るかも…。そんな思いを僕はより一層強く持った、そんな1週間でした。



この記事が気に入ったらサポートをしてみませんか?