見出し画像

2025年のAI:2025年に来る10のこと (AIの主要予測)

今日のビデオでは、2024年にやってくる10の主要なもの、人工知能のSL22についてお話しします。このビデオの長さはわかりませんが、タイムスタンプがあるので、リリースされるすべてのものを見ることができます。未来は間違いなくエキサイティングなので、これ以上時間を無駄にしないようにしましょう。

基本的にここにある最初のものの1つは、もちろんエージェントです。

今、皆さんの後ろに表示されているビデオは、私が最近Google Goのエージェントについて作成したビデオです。これが、ここにあるテキストが同期されていない理由です。Googleが行ったことと、他の多くの企業が2024年後半から2025年にピボットしようとしていることのためです。もちろん、エージェントです。エージェントとは、基本的に、AIシステムとでも言うべきもので、好きなことを何でもして、人が設定したタスクを達成できると言えます。これは、最も重要なものの1つになると思います。 AI で起こる重要な瞬間です。これは実際に皆さんに影響を与える瞬間の 1 つになるからです。これが実際に私たちに影響を与え、皆さんがこれを本当に感じる理由は、Google のデモでわかるように、ここで一時停止すると、Google が基本的にすべてのエージェントの側面をカバーしようとしていることがわかります。つまり、彼らは、顧客エージェント、従業員エージェント、クリエイティブ エージェント、データ エージェント、コード エージェント、セキュリティ エージェントを持っているということです。このビデオには、基本的にさまざまな機能があります。これは 50 分のビデオで、Google の長々とした発表を、従業員エージェントについて語る短いビデオにまとめたものです。これは本当に画期的なものです。現在、AI システムを使用する方法とはまったく異なるものになるからです。つまり、一般的な意味では、これらの AI システムと話し、チャット インターフェイスでインターフェイスしますが、このビデオでは、AI システムに質問するだけです。何かをするためには、いくつかのパラメータを概説し、AIシステムがそれらのタスクを実行できるようになります。これが、おそらく最も重要な瞬間の1つになると思う理由です。これはまだかなり初期段階であり、現在、エージェントの非常に基本的な領域にあると言えます。トップラボのいくつかから私が見ている現在のデモはそれほど印象的ではありません。そのため、おそらく必要なブレークスルーがあるようですが、このブレークスルーがいつ起こるかはわかりません。一部の大企業がこれに真剣に取り組んでいるため、これは間違いなくクレイジーになるでしょう。一つは、Open AI が実際にこのことについて話したことです。Open AI は、デバイスを操作し、タスクを自動化するソフトウェアに戦場を移したことがわかります。基本的に、Open AI は、顧客のデバイスを効果的に乗っ取ることによって複雑なタスクを自動化するエージェント ソフトウェアを開発していると書かれています。顧客は、チャット GPT エージェントに、たとえば分析のためにドキュメントからスプレッドシートにデータを転送したり、まったくランダムなさまざまなことを実行したり、スプレッドシートに入力したりするように依頼できます。すでに述べたように、これは本当にゲームチェンジャーの主要な 1 つになると思います。Open AI は、非常に優れた製品をリリースしてきた非常に長い歴史を持っています。彼らが取り組んでいるエージェントが何であれ、どうやら 2 つのエージェントに取り組んでいるようです。コンピューターを使用するエージェントです。これらのエージェントは、ユーザーのデバイスを効果的に乗っ取って、ドキュメントからスプレッドシートにデータを転送したり、経費報告書に記入したり、会計ソフトウェアに入力したりするなどのタスクを実行できます。これらのタスクには、クリック、カーソルの移動、テキスト入力などのアクションが含まれ、基本的にさまざまなアプリケーションでの人間の操作を模倣します。

もちろん、2 番目に、コンピューター エージェント以外のエージェントもあります。

この記事から簡単にまとめると、Web ベースのエージェントがあり、これらの Web ベースのエージェントは主にオンラインで実行されるタスクを処理し、企業に関する公開データを収集し、旅行の旅程を予算内で管理し、航空券を予約し、LMS を利用して、非常にクールなタスクを実行できます。基本的に、ここにあるのは非常に興味深い部分と言えるでしょう。サム・アルマンは、エージェントが非常に素晴らしいものになるだろうと実際に話しました。これは、今年初めにビル・ゲイツと行ったインタビューからのものです。ビル・ゲイツは YouTube であまり存在感がないため、多くの人が見逃したと思いますが、サム・アルマンが実際にエージェントの将来について、そして実際に何が起こるのか、まったく新しいことについて話している小さな音声スニペットを入手しました。私たちはそれを実際に見ています。そのため、より完全なタスクを実行できるこれらのバックステップを見ると、小さなエージェントを想像することができます。このプログラム全体を私のために書いてください。途中でいくつか質問しますが、それは単なる質問ではありません。一度にいくつかの関数を書いて、たくさんの新しいものを可能にし、そしていつかもっと複雑なことを可能にするAIが、私のためにこの会社を立ち上げて経営してくれるようになるかもしれません。そしていつか、新しい物理学を発見してくれるAIが、私たちが今見ているものはとてもエキサイティングで不思議ですが、少なくとも今後5年か10年は、この技術の文脈に常に位置づけておく価値があると思います。非常に急激な改善曲線を描くことになります。これらはこれまでで最も愚かなモデルですが、コーディングはおそらく、今日私たちが最も期待している生産性向上の唯一の領域です。大規模に展開され、現時点では大規模な使用が進んでいます。ヘルスケアと教育は、この曲線を上っている2つのものです。つまり、エージェントにとっては急激な改善になるだろうと言っているのが聞こえたと思います。もちろん、エージェントが実際に取り組んでいないことですが、エージェントは、私のためにこの会社を作ってほしい、私のためにこのビジネスを運営してほしい、このPowerPointプレゼンテーションを作ってほしい、宿題を全部やってほしいなどと言えるようなものになるでしょう。もちろん、その時には別の種類の宿題があることは間違いありませんが、ここでのポイントは、エージェントが本当にブレークスルーの瞬間になるということです。多くの企業が現在これに取り組んでいると思います。ブレークスルーはおそらく2024年後半から2025年初頭に来ると思いますが、これは非常に重要なことです。さらに、Google は実際にこれについて取り組んでいると述べています。これは、Google の AI 部門である Deep Mind のリーダーであるデムス ハサビスが、この種のエージェントの開発方法について話しているクリップです。私は、これらの大規模な汎用モデルの次の段階についても非常に興奮しています。おそらく今年、おそらく来年には、よりエージェントのような動作が見られるようになると思います。つまり、質問に答えるだけでなく、実際に計画して行動し、目標を達成できるシステムです。これらは、これらのシステムを、日常の便利なアシスタントという点で、次のレベルの有用性にするものだと私は考えています。これは、何年も前にゲームで行った作業の一部を取り戻すことです。それらはすべてエージェント システムで、特定の目標と目的を達成していました。そのような作業を持ち込み、それを現代の大規模なモデルと組み合わせるのです。マルチモーダルモデルの仕事です。Deus sausがエージェントの将来について語っていますが、それは物事をまったく別のレベルに引き上げるだろうという点で彼は非常に正しいと思います。まったく違うものになるでしょう。なぜなら、これが本当の本当の価値を引き出す場所だからです。多くの人がAIシステムを使用していないとは言いませんが、それらのAIシステムの使用方法が、私たちが現在それらとやり取りする方法と大きく異なることがわかるのは興味深いでしょう。それはとてもとても興味深いことだと思います。さて、次の部分に移りましょう。次の部分はもちろん音声アシスタントです。皆さんの多くは、新しいオープンAIデモを見てきましたが、これはもちろん2024年、そしてもちろん2025年初頭にはトップのフロンティアAIラボからもっとたくさん見られるようになるでしょう。音声アシスタントは皆さんが考えているものとは違うかもしれないので、ここで議論すべきことがたくさんあります。基本的にこのデモでは、本当にさまざまな音声アシスタントを見ることができました。これらの音声アシスタントは本当に本当に本当に優れていました。以前のSiriなどと比べて、他のものよりはるかに優れています。これは短いGPT-4oデモです。次に、ほとんどの人が見逃した別のデモをお見せします。これは、これと非常によく似たものに取り組んでいると言える、トップのフロンティア企業のデモです。こんにちは、ChatGPT、調子はどうですか。とても元気です。聞いてくれてありがとう。調子はどうですか。私の友人のバレットです。最近寝つきが悪いので、ロボットと愛についての寝る前にお話を聞かせてほしいんです。ロボットと愛についての就寝時のお話です。準備はできました。バレットさん、集まってください。昔々、私たちの世界とあまり変わらない世界にBitというロボットがいました。Bitは好奇心旺盛なロボットで、いつも新しい回路を探っていました。このお話は始まりましたが、もう少し声に感情が欲しいです。もう少しドラマチックに。わかりました。ドラマチックにしましょう。昔々、私たちの世界とあまり変わらない世界にBitというロボットがいました。Bitは好奇心旺盛なロボットで、いつも新しい回路を探っていました。バレットさん、ちょっと落ち着いて。お話を終わらせてもらえますか。うーん、でも歌声で。それでBitは落ちました。別のロボットの友達を飼っていて、彼らは循環的に暮らしていました。その後ずっと。どうもありがとうございました。とてもリラックスした気分です。これで音声アシスタントがかなりクレイジーになる理由と、その理由がわかりました。音声アシスタントがかなり大きな市場にサービスを提供していることはすでに分かっています。Rabbit R1デバイスを覚えているでしょうか。当時は音声アシスタントとして他のどの製品よりも優れていたと言えるでしょう。多くの人が、それは単なるラッパーの製品だなどと言っていますが、ここでのポイントは、音声アシスタントがAIと対話する方法であるということです。なぜなら、GPT 4oと話しているときや、他の人と話しているとき、本当に同じように感じ、同じ種類の流動性を感じようとしているとき、それはほとんどの人が使用しているものだからです。もちろん、単に大規模な言語モデルやAIシステムと会話して、大量のテキストを出力したいのですが、ほとんどの人にとっては、日常的にハンズフリーでAIとどんなトピックでも話せることが、これらのシステムの本当の用途の大部分を占めると思います。また、これは技術的に進歩していない人にとっては、ソフトウェアと対話するはるかに簡単な方法になると言えるでしょう。私たちが持っているもう1つのことは、GoogleのProject Astraです。これは、GoogleのAIアシスタンスの将来のビジョンです。これは、先ほど見た最近のものと非常に似ていますが、Google独自の音声アシスタンスを行う興味深い方法です。これは今後数か月以内にリリースされる可能性がありますが、Googleは実際にリリースすると言っているような気に入ったものをリリースしていません。もちろん、これはまだ取り組んでいるもので、このデモは、物事がどこに向かうのかを私たちに示しています。 AIをめぐるインタラクションとエコシステムがどのように変化するかについて、皆さんにクリエイティブなアイデアをいくつか教えてください。では、テストをしてみましょう。音の出るものを見たら教えてください。音の出るスピーカーを見ました。スピーカーのこの部分は何と呼ばれていますか。それはツイーターです。高周波音を出します。これらのクリエイティブなクレヨンについてクリエイティブな頭韻法を教えてください。明るく色を塗ります。確かにカラフルな作品を作ります。コードのこの部分は何をしますか。このコードは暗号化と復号化の機能を定義します。ECBC 暗号化を使用して、キーと初期化ベクトル IV に基づいてデータをエンコードおよびデコードするようです。そうです。私がいるのはどの地区だと思いますか。ここはロンドンのキングス クロス地区のようです。鉄道駅と交通機関の接続で知られています。私の眼鏡をどこで見たか覚えていますか。はい、覚えています。あなたの眼鏡は赤いリンゴの近くの机の上に置いてありました。このシステムを高速化するために、ここに何を追加できますか。サーバーとデータベースの間にキャッシュを追加すると、速度が向上します。これは何を思い出させますか。シュリンガー キャット。わかりました。このデュオのバンド名を教えてください。ゴールデン ストライプス。いいですね。ジェミニ。そう、それが Google の音声アシスタントに対する狙いです。音声アシスタントには、今後、市場シェアを獲得している他の企業が存在するため、別の分野にも進出する予定です。画面に何かを表示させてください。もちろんAmazonです。

AmazonはAlexaを全面的に改良し、月額制にする予定です。

Amazonは、大規模な言語モデルと生成AI機能を統合することでAlexaを大幅にアップグレードしています。Amazonは、音声対話に最適化されたカスタムビルドのLLMを搭載した新しいバージョンのAlexaを開発しています。このLLMがベースになるかどうかはわかりませんが、これが最も重要だと思います。おそらく、Claude 3 は Alexa とのより自然な会話インタラクションを可能にするでしょう。いくつかの重要な機能強化には、会話、視覚的なウェイクアップワード、会話型音声認識、表現力豊かなテキスト読み上げが含まれます。これは、これらの AI システムをより広い世界に統合するという点でもう 1 つのステップになります。すでに自宅にこれらのデバイスを持っている人はたくさんいます。文字通りソフトウェア アップデートを受け取るだけで、今では何百万人ものユーザーが実際に非常に便利な音声アシスタントと対話することになります。Amazon が何をするかを見るのは興味深いでしょう。Anthropic との提携がその大きな部分を占めることは間違いありません。前にも言ったように、Google がホーム デバイスに関する発表をしなかったら驚きだと思います。これらの人気がどの程度かはわかりませんが、ほとんどの人が Alexa を持っていることは知っています。Google デバイスについて話しているのを実際に聞いたことはありませんが、ホーム デバイスまたは物理的なデバイスがあれば、デバイスがはるかに売れると思います。簡単な質問をするだけで、簡単に応答できます。これは間違いなく私が使用するものだと思います。

3つ目は、もちろん真のマルチモーダル性です。

つまり、基本的に任意のものから任意のものへのマルチモーダル性です。これは NVIDIA の最近のカンファレンスのスクリーンショットですが、マルチモーダル システムが実際にどのように機能するかの将来を垣間見ることができます。考えられるあらゆる種類の入力が使用され、もちろんそれを他の種類の入力/出力に組み込むことができます。このマルチモーダル性は、ある意味ではすでに存在しており、さらに拡張される予定です。ほとんどの人が気付いていなかった方法の 1 つで、これは私が実際に見たもので、注意を払っていたためほとんどの人が気付いていませんでしたが、GPT 4o がリリースされたときにこの Web ページがリリースされました。さまざまな機能の調査があり、機能のセクションには、gbt 4o が完全にマルチモーダル モデルであることを示すさまざまなものがありました。そのため、GPT 4o と呼ばれています。 Omni には、デモでは紹介されなかったさまざまな機能があり、これが AI の未来であることを証明しました。これは、ネイティブに構築された完全なマルチモーダル モデルであり、大規模な言語モデルなどではなく、完全にネイティブのマルチモーター モデルです。これの意味を簡単に説明します。gbt 4o の Web ページにアクセスして下にスクロールすると、このセクションがあります。このセクションは機能の探索と呼ばれています。これは視覚的であり、ポスター作成であることがわかります。さまざまなものを組み合わせることができるのがわかります。ここには写真のキャラクターがあります。写真をさまざまなものに変えることができます。コンクリート詩があります。これを言葉に変えることができます。バッジに変えることができると思います。講義の要約も見ることができます。これは、45分のビデオがあり、そこから入力を取得できることを示しています。これは真のマルチモーダル性です。複数のスピーカーによる会議メモ。オーディオを取り込むことができます。3Dオブジェクトの合成もあります。ここで3Dオブジェクトを生成し、それをリアルタイム3D再構築で回転させることができます。これは本当にすべてを変えるものです。真のマルチモーダル性がある状況であるため、本当に考える必要があるのは頭の中の制限だけです。それに加えて、マルチモーダル性の側面は、Googleの最近のAIスタジオに存在しています。GoogleがAIスタジオをリリースしたことを知らない場合は、そこで実際に音声をアップロードしたり、画像をアップロードしたり、最長 1 時間の動画をアップロードしたりできるので、真のマルチモーダル性で本当にできることは、かなりすごいことです。現在、Google の新しいスタジオでは、ほとんどの人が利用できるものの、すべての人に公開されているわけではありません。しかし、私が使用しようとすると、まだかなりバグが多いので、実際にワークフローに使用できるものではありません。しかし、真のマルチモーダル性は多くのことを変えると思います。画像とテキストは良いですが、動画と音声が方程式全体を完成させます。そして、非常に興味深いのは、これらのモデルのパーソナライズです。基本的に、米国などの特定の地域の特定のアカウントでのみ利用可能な機能があります。もちろん、これはパーソナライズ機能です。今後数か月で、パーソナライズがヨーロッパと英国の他の地域に展開されると確信しています。そうなれば、これらのモデルの使いやすさが向上すると言えるでしょう。パーソナライズはゲームを変えるものなので、すべてを思い出させる必要はありません。以前やったこと、あなたの好みをすべて思い出させる必要はなく、あなたが知ってほしいすべての事実を完全に知っているので、日々の使用がずっと簡単になります。たとえば、私が質問しようとしていて、一番いいレストランはどこか、今日はどんな食べ物を食べるべきかなどと尋ねたとき、ChatGPTや他のAIシステムで新しいチャットを開くときには、このメモリ領域がないことを覚えておく必要があります。つまり、人間が何らかの食べ物を食べたいということだけがデータポイントであり、あなたの年齢はわかりません。あなたの位置情報はありますが、あなたが何を食べるのが好きかはわかりません。アレルギーがあるかどうかもわかりません。人間は食べ物を食べたいということしかわかりません。そのため、そのコマンドを与えると、非常に漠然とした幅広い回答を返すことができます。しかし、あなたが「私は男性で、ジムに通っていて、とても活動的」と言えば、タンパク質を提案するかもしれません。特に甘い味が好きなら、ハチミツや牛肉などと一緒に試してみてください。実際に役立つものを提案しようとします。これは、ユーザビリティの面で非常に大きな向上をもたらします。これらのモデルに与えるデータが多ければ多いほど、モデルはより良くなるからです。これは私の個人的な経験でわかっていることです。これらのモデルがうまく動作しない場合は、より多くのコンテキストを与えるだけです。より多くのコンテキストを与えるほど、これらのモデルからの応答はより良くなります。ここで、サム・アルマンとゲイツの両氏が、カスタマイズ性とパーソナライゼーションについても非常に重要だと話しているのがわかります。人々は非常に異なる非常に異なるものを望んでいます。 GPT 4 のさまざまな機能、さまざまなスタイル、さまざまな想定セット、これらすべてを可能にします。また、独自のデータを使用する機能、つまり、電子メール、カレンダー、予約方法、外部データ ソースへの接続など、これらはすべて最も重要な領域の一部になります。ええ、アルマンは、これらが AI システムにとって最も重要な領域の一部であると話しています。もちろん、次に私たちが持っているのは、実際にはポイント 5 です。ポイント 4 には、もちろん推論機能とモデルの信頼性と書かれていますが、これはモデルが間違いを犯さず、モデルがはるかに賢くなることを意味します。私たちはそれをさらに推論することができますが、

おそらく最も重要な進歩の領域は推論機能に関するものになるでしょう。

現在、GPT 4 は推論できますが、非常に限られた方法のみです。また、信頼性もあります。GPT 4 にほとんどの質問を 10,000 回行うと、その 10,000 回のうちの 1 回はおそらくかなり良い答えですが、常にどれが返ってくるかはわかりません。10 回のうちの 1 回は、最も良い答えを返したい場合、信頼性の向上が重要になります。サムマンは信頼性と推論能力が非常に重要になると言っています。サムマンはこれについて話しましたが、彼が何を意味しているのかわからない場合は、基本的にモデルが本当にあなたが望むことを理解し、二度と間違いを犯さないことを意味します。決してないとは言いません。それはかなり難しいことだと思うからです。しかし、今ほど間違いは起こらないでしょう。彼はこれについて話しています。ここにこのクリップを含めました。基本的に彼はGPT 4が非常に愚かだと言っています。これはモデルの推論能力がかなり限られていることを指摘しています。私の言っていることがわからない場合は、簡単なデモを見てください。GPT4に人々が尋ねた質問がありました。彼らが尋ねた質問は、誰かが何かを1つのバッグから別のバッグに移動した場合、バッグが透明で、中身が見えますか、というものでした。モデルはバッグが透明であることに気付かず、それは基本的にその推論能力の一部です。ちょっと待って、バッグは透明だから中身が見えるはずだけど、見えない、などです。つまり、エッセイを書くために使っているのであれば、日常的に使うことはないかもしれませんが、推論能力が向上するということは、より幅広い用途が考えられるということであり、より多くの業界に影響を与えるということです。ここで、サムはGPT 4がかなり愚かであるという事実について語っています。つまり、これは言い逃れの答えのように聞こえますが、GPT 5または私たちがそれと呼ぶものについて最も重要なことは、それがより賢くなるということだと思います。これは言い逃れのように聞こえますが、人類の歴史の中で最も注目すべき事実の1つであり、私たちはただ何かをすることができ、今すぐに科学的に高い確信を持ってGPT 5はGPT 4よりもはるかに賢くなるだろう、GPT 6はGPT 5 よりもはるかに賢くなりますが、まだこの曲線の頂点には近づいておらず、何をすべきかはわかっています。これは、1 つの領域で改善されるわけではなく、この評価やこの主題、このモダリティで常に改善されるわけではありません。一般的な意味でより賢くなるだけです。この発言の重大性はまだ過小評価されていると思います。前に言ったように、その重大性は間違いなく過小評価されるでしょう。なぜなら、GPT 3 からの飛躍により、はるかに賢くなったモデルと機能が明らかになったからです。人々が実際に GPT 4 を、コードや文章作成などの特定の用途に使用できることを意味しました。つまり、知っていることをもっと有意義に言えるようになるということです。そして、実行できるタスクがずっと増えました。もちろん、ここで彼は GPT が驚異的であるという事実について語っています。Chat GPT は驚異的です。他のすべてのモデルは驚異的です。昨年 5 億 2000 万ドルの現金を稼いだので、経済モデルについて考えるという点では関係ありません。実際に収益源はどこになるのでしょうか。まず、そう言ってくれるのはうれしいですが、Chat GPT は驚異的ではありません。Chat GPT のように、せいぜい少し恥ずかしいくらいです。GPT 4 は、皆さんが今後使用しなければならないモデルの中で最も愚かなモデルです。しかし、早く頻繁に出荷することが重要です。ですから、彼が言ったことに注意を払ってください。しばらくの間、使用しなければならない最も愚かなモデルになるでしょう。これは本当に重要なことだと私は思います。

6番目は、もちろんカスタムトレーニングモデルです。

ここでご覧いただけるのは、法律向けにトレーニングされたモデルです。GPT 4に対抗していることがわかります。基本的に、Harveyという会社はOpen AIと提携してカスタム判例モデルを開発しました。基本的に、彼らは基礎モデルを持っていて、パブリックAPIを使用しています。彼らは、パブリックAPIと検索拡張生成システムを使用して基礎モデルを微調整しようとしましたが、これらのシステムは、深いドメイン知識と洗練された推論が必要だったため、あまり良くありませんでした。そこで、彼らはOpen AIと協力して、法的な判例研究専用のモデルをトレーニングすることにしました。これには、膨大な量の法的なデータとドメイン固有の知識を基本モデルに統合することが必要でした。その後、デラウェア州の判例を追加し、徐々に米国の判例法のコーパス全体を含むように拡大し、約100億トークン相当の法的なデータがモデルに追加されました。これは、Open AIと弁護士が判例研究とAIの複雑な点を説明する高度な共同作業でした。研究者がモデルの機能を実証し、ここで Open AI は、モデルを改良するために必要な技術的側面と調整についての洞察を提供しました。これにより、カスタム トレーニング モデルは、詳細な法的推論と広範な法的知識を活用する能力を必要とするタスクを処理でき、複雑な法的質問に対する包括的な回答を生成し、文書を作成することができます。主な改善点の 1 つは、このモデルが幻覚を減らし、すべてのステートメントが引用された判例によって裏付けられていることを保証することです。これにより、このモデルからの出力は非常に信頼性が高く、正確な参照を必要とする法律専門家にとって有用になります。したがって、全体として、将来的にはカスタム モデルが提供されることになります。特定のユースケース向けにトレーニングされたモデルです。法律もその1つですが、GPT 4は特定の事柄を議論するために使用できます。カスタムトレーニングされたモデルを使用すると、ユースケースが大幅に増加することがわかります。これは、今後さらに頻繁に見られるようになるでしょう。

次は、改善率が非常に興味深いため、間違いなく見られるようになると思います。これはヘルスケアAIです。

いくつかの企業が舞台裏で静かに作業しており、すぐに準備が整う特定のヘルスケア製品を開発していると言えます。これらの企業はこれらの新しいAIシステムを活用すると思います。これは非常に興味深いことです。現在ご覧になっているのは、もちろんmed QA、医療の質問と回答のQAのベンチマークです。ここでGPT 4がGoogle Geminiに追い抜かれていることがわかります。Med Geminiは医療の質問に答えるための特別なバージョンです。基本的には、マルチモーダル医療アプリケーション向けに特別に微調整されたAIモデルのファミリーであり、これらのモデルはテキスト、画像、ビデオ、電子健康記録などの複雑な医療データを理解および分析する能力において、前述したように、Gemini のマルチモーダル機能により、これらのモデルはさまざまな情報を消化し、高度な推論を行うことができるようになり、最先端の精度である 91 を達成するという驚くべきパフォーマンスを示しました。med QAベンチマークで1%、これはもちろん米国の医師免許試験に似た医療知識を評価するために使用されます。そして、私が言ったように、これは単なる研究ではありません。Google ResearchとFitbitは実際に個人の健康LLMを構築し、モバイルアプリを通じてパーソナライズされたコーチングと推奨事項を提供しています。そのため、GoogleのGeminiの生成AIモデルファミリーと、FitbitとPixelデバイスからの十分な健康データを活用し、このイニシアチブは個人の健康とフィットネスの目標に基づいてカスタマイズされたガイダンスを提供することを目指しています。Googleは最近、これに取り組んでいることを発表しました。彼らはこれをFitbitに積極的に導入しようとしています。Googleだけでなく、AppleもAIを搭載した健康コーチコーチングサービス、ムードトラッカー、iPad Healthアプリを計画しています。これは、iPhoneが私たちを健康サービスに押し進める動きです。これはiOS 17で計画されているものになるでしょう。おそらくAppleの新しいカンファレンスで発表されるでしょうが、実際に何が起こるかを見るのは興味深いと思います。これは非常に過小評価されていると思うものであり、これは間違いなくヘルスケアに非常に良い影響を与えるでしょう。なぜなら、それはおそらく、医療へのアクセスを低下させると言えるでしょう。

高品質な情報の次に、もちろん自動運転の拡大があります。

自動運転車が本当に存在することを知らない方のために説明します。自動運転車は基本的に運転者なしで運転する車で、運転手は必要なく、助手席に座って目的地まで連れて行ってくれます。とても奇妙に思えますが、実際には非常に理にかなっています。基本的に、ここでご覧になっているのは、これらを直接体験した人々のツイートです。この人は、サンフランシスコで毎回旅行に使用しており本当に素晴らしいと言っています。乗車中は安定していて、路上での奇妙で予想外のナンセンスな状況を自信を持って簡単にナビゲートしてくれました。また、Uber よりも Whos の自動運転の方が好きだと言う人もいます。実際に安全だと感じています。また、Whos の自動運転タクシーを試したばかりですが、Uber に乗るよりも快適です。AI はタクシーや Uber のすべてを変えています。問題は、これが拡大していることです。この種のものはさまざまな分野に拡大し、最終的には米国全土に広がると思いますが、ここには、今年後半に4つの主要都市で一般向けに配車サービスを提供すると書いてあります。明日3月14日から、ロサンゼルスでは一部の一般向けに完全自動運転の配車サービスが利用可能になります。先週オースティンで乗客のみの初期テストを開始した後、今年後半にはオースティンの住民にサービスを提供する予定です。これを拡大するのはかなりすごいことですし、ユーザーからのフィードバックがもっと増えると思います。特に英国で発表されている他の発表もそうだと思います。自動運転車法が成立したことにより、わずか 2 年で英国の道路に自動運転車が走れるようになり、非常に興味深い時代が到来します。これでポイント 9 が完成しました。次は何が来るのでしょうか。

それはカスタマーサービス AI です。

ビジネスとやり取りする人であれば、私たち全員がそうであるように、カスタマー サービスと話すときはいつも面倒なやり取りがありますが、それがもうすぐ変わります。Google のカスタマー サービス AI をご覧ください。これが舞台裏でゲームを変えています。Symbol Fashions のカスタマー エージェントは、Google Cloud の AI 機能スイート全体を使用して、カスタマイズされたサポート インタラクションを提供します。購入や返品などの取引を促進し、最新の情報をリアルタイムで受け取れるようにします。コンサート用のシャツがもうすぐ手に入るので、店舗に電話しましょう。こんにちは、こちらはサウス ラスベガス ブールバードの Symbol Fashion カスタマー エージェントです。アマンダですか? はい、こちらはアマンダです。お問い合わせいただきありがとうございます。アマンダ。別のデバイスでセッションを行ったようです。当社のリンクを含む SMS メッセージを送信しました。ライブ チャット コンパニオン チャットに切り替えたい場合は、リンクをクリックしてください。本日はどのようなご用件でしょうか。カートに入っているシャツを、登録してあるカートで購入したいと思います。シンボル ファッション アワードのメンバーでもあるようですね。20% オフのバウチャーをお持ちのようですね。この購入に適用しますか。はい、お願いします。購入するシャツはこれらのアイテムとよく合います。ご希望のサイズでのお受け取りも可能です。これらのいずれかに興味がありますか。ぜひ、白いシャツとブーツをカートに追加してください。合計金額は 23 ドルです。登録したカードで進めます。はい、購入は確定しました。今日は他に何か必要ですか。いいえ、準備は整いました。ありがとうございます。シンボルファッションでのお買い物ありがとうございます。5分以内に商品が準備できたら、テキストでお知らせします。欲しいシャツとそれに合う服を見つけて注文できました。コンサートの準備はできました。トーマスさん、お返しします。これで本当に状況が変わります。これは本当に企業にとって役立つものになると思います。カスタマーサービスは退屈で、いつも文句を言う人がいて、物が見つからないからです。AI の能力は、情報に素早くアクセスして、誰かが声を荒げてもイライラせずに我慢できると思います。これは人間がそもそもやりたくない分野になると思います。ですから、これは本当に素晴らしいものになるでしょう。もちろん、カスタマーサービス AI には他にも分野があります。ウェンディーズは実際にこれをテストしていると言えると思います。私はこれを何度かお見せしましたが、これは非常に関連性があります。なぜなら、ここに示されているように効果的であれば、おそらくより多くのドライブスルーがこのツールを使用するようになると思うからです。ウェンディーズへようこそ。何をご希望ですか?チョコレートフロスティをお願いします。チョコレートフロスティミディアムのサイズは?今日は他に何かご用意できますか?いいえ、結構です。ありがとうございます。次のウィンドウまでお進みください。そうすると、物事がどのように進むかの違いがわかります。これは本当に良いことだと思います。ドライブスルーで人々がミッキーを奪っているビデオをたくさん見てきました。一部の人々はただ仕事をしたいだけなのに、人々は彼らから面白いコンテンツを作ろうとしているので、かなりイライラします。ですから、このポジションにすべての言語を話し、あなたが言ったことを正確に理解し、完全に忍耐強くなれるAIがいれば、それは本当に本当に素晴らしいものになると思います。

さて、最後に紹介するもう1つは、もちろんさらに優れたロボットです。

現在検討しているのは、ボスとダイナミクスの新しいアトラスは、かなりすごいです。まだ完全なデモは見ていませんが、彼らが見せてくれたものから、彼らは新しいヒューマノイドロボットの開発に乗り出そうとしていることがわかりました。このロボットが以前のアトラスのように動くことができれば、人々はこのロボットがどのように動くのかに本当に驚くことになると思います。完全に電動で、以前のもののように油圧ベースではないと思います。ですから、私たちはロボットスプーンではないかもしれませんが、ロボット工学に非常に大きな焦点を当てた、巨大な新しいものを手に入れようとしています。なぜなら、ロボットは信じられないほどの成長期を迎えているからです。ここでも、最近でも、このロボットは、驚くほどのスピードで、遠隔操作なしでロボットができることはまだ信じられません。世界中の企業がロボットで実現していることは驚くべきことです。今年後半、あるいは2025年には、ロボットがもっと多くの異なるタスクを実行するようになることを示すいくつかのものが登場すると思います。特に、ここにあるマルチモーダルAISと組み合わされ、もちろんこれらのLLMが統合されているという事実と組み合わされています。ロボットでどのようなことが起こるかを見るのは非常に興味深い時期になるでしょう。これは遠隔操作なしで、1回のスピードでロボットがこれを行うことができるというのは本当に驚くべきことです。なぜなら、将来、人々がロボットが多くの家事やこのようなことをするだろうと話しているとき、これは遠隔操作ではないことを覚えておいてください。つまり、別の部屋に人間がいて、これを制御しているわけではないということです。これはロボットです。設定されたタスクに基づいて完全に自律的にこれを実行するのです。皆さんは中国が大量のヒューマノイドロボットを開発しているという事実も見ておく必要があると思います。これはそのうちの半分にすぎません。これまでのデモで見たもの、彼らが構築しているインフラ、すべてがヒューマノイドロボティクスとAIに投入されています。中国は間違いなくこの分野のリーダーになりたいと考えています。なぜなら彼らは経済的価値を理解しているからです。最近では、AIエージェントアバターであ​​るUnry G1が登場しました。これはわずか16万6千ドルのヒューマノイドロボットです。つまり、これらのロボットのコストが下がっているということは、研究者がこれらのシステムを購入し、研究手法をこれらのシステムに適用できるということです。多くの場合、問題はこれらのロボットが非常に高価であるということです。特に、これらのデモで見られるクールなロボットのいくつかは25万ドルから50万ドルもします。つまり、大学の研究者であれば、1台だけ購入して研究を行うというのはかなり非現実的です。 Arch を研究していますが、規模の経済でこれらのものを実現できれば、これらのデバイスが急速に進歩している非常に大きな領域が開かれる可能性があります。これが、AI ロボット工学とシンギュラリティの今後 365 日間で登場すると思われる 10 のことです。これらは、このチャンネルで実際に目にすることになるものです。見逃したものがあれば、下の方に「いいね」を付けてください。下の方にコメントして、最も楽しみにしていることを教えてください。ぜひ知りたいです」1000ドルから50万ドルもします。大学の研究者なら、Archの研究をするために1台だけ買うというのはかなり非現実的です。しかし、規模の経済でこれらのものを実現できれば、これらのデバイスの急速な進歩が見られる非常に大きな領域が開けるかもしれません。以上が、AIロボティクスとシンギュラリティの今後365日間でやってくると思われる10のことであり、このチャンネルで実際に見られるものになります。見逃したものがあれば、下の方にいいね!とコメントを忘れずに残してください。何に一番興奮しているか教えてください。ぜひ知りたいです。

この記事が気に入ったらサポートをしてみませんか?