今週のAI関連ニュースでは、Meta社がオープンソースのLLM「LLaMA 3」をリリースしました。LLaMA 3は8Bと70Bパラメータの2つのバージョンが公開され、既存のオープンソースモデルを上回るベンチマーク結果を示しました。将来的には400Bパラメータのモデルも予定されており、GPT-4やClaude 3 Opusに匹敵する性能が期待されています。Microsoft、Google、OpenAIなどの大手企業は、数百億ドル規模のデータセンター構築に投資し、AIの開発競争を加速させています。また、Stable Diffusion 3やGrok-1.5Vなど、画像生成モデルの進化も著しいです。Adobe PremiereやDaVinci Resolveといった動画編集ソフトにもAI機能が導入され、動画制作の効率化が図られています。一方で、AI搭載ガジェットの登場や、米空軍によるAIを用いた戦闘機同士の模擬戦闘の成功など、AIの応用範囲は急速に広がっています。
公開日:2024年4月20日
※動画を再生してから読むのがオススメです。
AIの世界では熱いことが起こっており、今週もたくさんのニュースがありました。
このチャンネルでは、あなたが知っておくべきすべてをお伝えすることが私の目標です。
毎日たくさんのAIニュースが起こっているので、今はあなたが興味を持つと思うことだけ、または私自身が本当に楽しく興味を持っていることだけに絞り込むようにしています。
さあ、始めましょう。
今週の最大の発表から始めましょう。それはMetaがLLaMA 3をリリースしたということです。
LLaMAがよくわからない場合、LLaMA 2はMetaが公開したオープンソースの大規模言語モデルであり、現在出ているほとんどのオープンソースの大規模言語モデルは、元々これに基づいていました。
YouTubeの他のコンテンツクリエイターが言っていることに関わらず、このニュースは業界を驚かせたり驚かせたりするものではありませんでした。なぜなら、Metaはこれが起こると私たちに平然と伝えており、それが数週間以内に起こるとさえ言っていました。
業界の誰もがこの日が来ることを知っていました。
しかし、ここでZuckからこのAIの世界における画期的な日に関するいくつかの抜粋をご紹介します。
今日、Meta AIをLLaMA 3でアップグレードしています。これは私たちがオープンソース化している最新のAIモデルです。
最終的な結論は、Meta AIが今、あなたが自由に使える最も賢いAIアシスタントだと私たちは信じています。
Meta AIをさらに賢くするために、GoogleとBingからのリアルタイムの知識を回答に直接統合しました。
私たちはユニークな創造機能の一連をリリースしています。
Meta AIは今、アニメーションを作成し、高品質な画像を非常に速く作成します。実際、入力中に画像を生成および更新しています。
今日、私たちは8兆から70兆のパラメータを持つ最初のセットのLLaMA 3モデルをオープンソース化しています。
それらはそのスケールにおいて最高のパフォーマンスを持っており、さらにマルチモダリティとより大きなコンテキストウィンドウをもたらすためにまもなく多くのリリースが予定されています。
私たちは引き続き、400兆を超えるパラメータを持つより大きな密なモデルをトレーニングしています。
この発表について分解するべき点がいくつかあります。
LLaMA 3の2つのバージョン、80億パラメータモデルと700億パラメータモデルがリリースされ、現在無料で利用可能なAIモデルとかなり似ています。
ここで様々なベンチマークテストを見ると、Claude 3 SonnetやClaudeの無料バージョンであるGemini Pro 1.5とほぼ同等のパフォーマンスを発揮します。
既存のオープンソースモデルに関しては、80億パラメータモデルのベンチマークは、いくつかの最高の既存のオープンソースモデルを上回っています。
もしClaude Opusや現行のGPT-4のようなものを本当に上回るこれらのモデルをお探しであれば、まだそこまでではありません。
LLaMA 3からのより大きなニュースだと思うのは、ついに4000億パラメータモデルをオープンソースモデルとしてリリースするときです。
この4000億パラメータモデルが登場すると、はるかに優れた機能を持つことになります。
マルチモダリティや複数言語での会話能力、より大きなコンテキストウィンドウ、そしてより強力な全体的な機能などが含まれます。
これがみんなが待ち望んでいるLLaMA 3モデルです。
これが、現行のGPT-4やClaude 3 Opusのモデルと競合すると期待されているものです。
彼らはさえ、モデルのトレーニングが完了する前にいくつかの初期のベンチマークスコアを示しており、これらのベンチマークは、ClaudeやOpenAIのようなクローズドモデルから得られるものとほぼ同等です。
LLaMA 3の発表と共に、NVIDIAはあなたに彼らがNVIDIA GPUでトレーニングされたことを思い出させたいと思っています。また、大規模言語モデルの推論を本当に高速化するGROQは、LLaMA 3がすぐにGROQ上に展開されることを発表しました。
LLaMA 3を実際に使用したい場合、現在はいくつかの方法があります。
ハギングフェイスで利用できます。
メタのプラットフォームで使用したくない場合は、ハギングフェイスでAPI経由で使用することができます。
現在のモデルの下でハギングフェイスのチャットに行ってください。
私は現在、メタLLaMA 370Bに設定されていることがわかりますが、そうでない場合は、設定アイコンをクリックして、メタのLLaMA 370Bモデルを含む任意のモデルを選択できます。
しかし、現在のクールな方法は、メタがMeta.aiでリリースした新しいウェブサイトを使用することです。
これは、チャットGPTスタイルのチャットボットのように感じるメタの新しいフロントエンドユーザーインターフェースです。
彼らが言及した一つのことは、この新しいモデルが実際に質問をするときにウェブを検索するということです。
私はすぐに昨日起こったことに関する非常に関連性の高い質問をしてみましょう。
昨日のパドレス対ブルワーズの試合は誰が勝ち、スコアは何でしたか?
そして、正しく答えたのは、ミルウォーキーブルワーズが昨日サンディエゴパドレスに1対0で勝ったということでした。
そして、それは自分の情報源を引用しました。
私はClaudeが好きですが、特にClaude 3 Opusが好きです。これは、Claude自身のチャットアプリではまだネイティブで行うことができないことです。
しかし、このMeta.aiのウェブサイトの中で、最も素晴らしい機能の1つはImagineタブの下にあります。
ここをクリックすると、ここに本当にクールなAI画像生成器があり、実際にタイプするとリアルタイムで画像を生成してくれます。
私はこれを全く速めるつもりはありません。ただ、夜に光る目を持つビーチでタコを食べる猫をタイプするだけで、その画像が実際にシフトして変化しているのを見ていました。
私が画像を気に入り、処理されたものを見たら、提出することができます。ここで生成された画像を見ることができ、今は私のために3つの追加の画像を生成しています。
数秒後、いくつかのバリエーションがあります。
さあ、最初に作成したものをクリックして、今度はアニメーション機能があります。
これは、私たちがChatGPTの中でDALL·E 3でさえまだ行うことができないことです。
私はこのアニメーションボタンをクリックすると、ここで私の小さな猫の写真を取って、少しの短いアニメーションに変えてくれます。
私はあまり動きがないという意味ですが、ちょうど猫の絵をアニメーション化しました。この全体の作業には数秒かかりました。
リアルなスタイルで月をバックに遠吠えするオオカミをしましょう。
シンプソンズのスタイルで8ビットビデオゲームのスタイルでどうですか?そして、タイプするとそれが変わっていきます。
本当にクールで遊ぶのが本当に楽しく、Meta.aiで無料で遊べます。
Metaが導入した私のお気に入りの新機能の1つです。
再び、LLaMA 3について詳しく調査しますが、4000億パラメータモデルが登場するのを待っています。それが業界全体を驚かせると思います。
それが業界全体を驚かすものになるでしょう。
将来的に私からLLaMA 3についてのさらなるチャットを期待してください。
オンラインビジネスを運営している場合、このAIの新時代で顧客を24時間365日サポートできるべきです。
だからこのビデオでは、GPTtrainer.comと提携しました。それは、マルチエージェントChatGPTのようなチャットボットを構築し、関数呼び出し機能を持ち、独自のデータを使用できる最初で唯一のノーコード/ローコードフレームワークです。
お客様がチャットをエスカレートさせて実際にリアルな人間と話すことができるため、人間はまだループ内で人間を愛しています。
お客様がイライラして質問を繰り返したり、悪態をついたり、会話の進行に不満を持っていることを示す他の行動を取ったりする場合、GPTトレーナーチャットボットにはイライラ検出などの機能があり、チャットボットの応答をより適切に誘導することができます。
機能呼び出しの機能を使用すると、お客様を必要な場所に送ることができます。
たとえば、お客様が通話を予約する必要がある場合、APIやWebフックを使用してチャットボットを介して直接通話を予約することができます。
会社の代わりにボットに返品処理をさせる必要がある場合、この機能呼び出しの機能を使用してそれを行うこともできます。
GPTトレーナーは、ウェブサイトの優れたリード収集ツールにもなります。したがって、潜在的な顧客がチャットをすると、名前やメールアドレスなどを収集し、将来のマーケティング機会のためにデータベースに保存することができます。
彼らは、ビデオチュートリアルやステップバイステップの解説など、素晴らしいドキュメントを持っており、プラットフォームを最大限に活用する方法を正確に理解できるようにしています。
GPTトレーナーについて詳しく知りたい場合は、GPT-trainer.comで詳細をご覧いただけます。また、ウェブサイトの任意のサブスクリプションプランから20%割引になるように、クーポンコードmattwolf20を使用してください。
このビデオのスポンサーであるGPT-trainer.comに感謝いたします。また、オンラインビジネスをお持ちの場合は、24時間365日のサポートを提供できるだけでなく、GPTトレーナーが提供するすべての素晴らしいAI機能を備えて、競合他社から差別化する方法です。
最後に、AIマットですが、忘れていたことがあります。GPTトレーナーには商用ライセンスプログラムもあり、チャットボットを販売したり、GPTトレーナープラットフォーム全体をホワイトラベル化して収益を上げることもできます。GPTトレーナーでお金を稼ぐ方法もチェックしてみてください。
先週金曜日に発表されたニュースですが、おそらくご存知の通り、私は木曜日にこれらのビデオを録画しているので、金曜日のニュースは通常、翌週になります。
先週の終わりにxAIは、ビジョンを備えたGrok-1.5を発表しました。ベンチマークによると、他のビジョンを持つモデルとほぼ同等の性能を示しています。
xAIのウェブサイトで共有された例をいくつか見ることができます。ダイアグラムからコードを書くことができるか、ダイアグラムの描かれたホワイトボードを与えられたという例もあります。
そしてそのホワイトボードがコードに変換されました。
ここには他にもいくつかの例がありますので、ぜひのぞいてみてください。
私自身のGrokアカウントをチェックしたところ、私はXでGrokにアクセスできるので、この機能はまだ展開されていないようです。
画像をアップロードする能力はありませんでしたが、アクセス権があれば、実際にこれが何ができるのかをより詳しくテストしてみます。
もしPoチャットボットを使用している場合、Poでマルチボットチャットという新機能がリリースされました。基本的に、Poで質問をすると、どのモデルがその質問に最適かを選択して使用します。
また、特定のボットを呼び出すこともできます。そのボットを@で指定することで呼び出すことができます。
ここでのスクリーンショットを見ると、彼らは「インフレーションを理解するのを手伝ってくれ Claude3」と尋ね、opusが応答し、それからweb検索をタグ付けして現在の金利について尋ねました。
おそらく、それが必要に応じてジェットボットを変更できるように、ウェブ検索を行い、それらの質問に答えた後、Gemini1.5プロMistralラージやGPT-4のオプションもあることがわかります。
私は、多くの大規模言語モデルが進む方向だと予測しています。
特定の大規模言語モデルは、特定のタスクにおいて他よりも優れていることがわかると思います。
一部のモデルはコーディングが得意かもしれませんし、一部は執筆が得意かもしれませんし、一部は医学的分析が得意かもしれません。
私たちは対話するチャットボットを持つことになり、そのチャットボットは質問する際に最適なモデルを選択するか、特定のモデルを指定してその質問をすることができるでしょう。
私は、Poが行っていることが、私にとって大規模言語モデルの未来であると思うので、少し先を行っていると思います。
将来、ChatGPTの人か、クロッドの人か、Geminiの人か、のどれかになるとは必ずしも思っていません。
単一のフロントエンドユーザーインターフェースを使用し、質問をし、チャットをし、その質問に対して最適なモデルを選択するでしょう。
私の予測はいつも正確ではありませんが、今はすべてがそういう方向に向かっていると本当に思います。
数週間前、MicrosoftとOpenAIが協力して、1,000億ドルのデータセンターを建設し、計算能力を本当に増やし、AGIに一歩近づこうとしていることについて話しました。
そしてGoogleが反応し、DeepMindの責任者が、今後数年でGoogleも同様のインフラを構築するために少なくとも1,000億ドルを費やすと述べました。
こちらではMicrosoftとOpenAIが1,000億ドルのデータセンターでGPU計算をさらに増やしている一方、Googleは同様の取り組みをしていると言っています。
私たちは数年かけて1,000億ドル以上のデータセンターを建設して、AIの取り組みを本当にスケールアップしたいと考えており、AGIを最初に達成したいと思っています。
彼らは実際にはそう言っていませんが、ここで展開されているストーリーラインからそれを推測しています。
AIアートの世界でも、StableDiffusion 3のリリースによるかなり大きなニュースがありました。
StableDiffusion 3には、まだ使用できるフロントエンドユーザーインターフェースがないという問題があります。
StableDiffusion 3をソフトウェア製品を構築している人々が自分たちのソフトウェアに統合できるようにAPIをリリースし、利用可能にしましたが、Stability AIはもはやClipDropを所有していないため、まだ遊んだりテストしたりするための無料のウェブサイトはありませんが、このメインの画像は実際にStableDiffusion 3で生成されました。
この画像のテキストもすべてStableDiffusion 3でした。
画像の中のテキストにはかなり優れていると言える例がいくつかあります。
画像自体の画質は、DALL·E 3から得られるものよりもはるかに進んでいるとは必ずしも言えませんし、正直に言って、Midjourneyから得られるものほど良いとも言えませんが、テキストは本当にうまく処理しています。
ここでもう1つの例があります。ここでは、画像に入れることができたかなり大きなテキストの塊があり、プロンプトにかなりよく従っています。
簡単なユーザーインターフェースでStableDiffusion 3にアクセスできないとしても、おそらく近いうちに多くのAI画像アプリに展開されるでしょう。
私が完全に予想している中の1つは、Leonardo AIにすぐに展開されるということです。
これまでにゲームの先を行ってきた彼らは、私が覚えている最初のツールの1つで、SDXLを利用可能にしたものでした。
おそらく私たちはLeonardoで近いうちにStableDiffusion 3を見るでしょうが、その前に、最近Leonardoの誰かと話していて、このビデオを見ている時点でおそらくすぐに、新機能について教えてもらいました。
おっしゃるところでは、今週末にスタイル変換機能をリリースする予定で、例として、この画像をスタイルの参照としてアップロードしたと教えていただきました。
そして、レオナルドにいくつかの画像を生成させましたが、同じスタイルの参照を使用しました。
彼らが生成した画像のいくつかをこちらに示します。例えば、同じスタイルでスカイダイビングをしている人、未来的なサイバーパンクの世界でヘルメットをかぶっている人などです。
同じスタイルで別のサイバーパンク風の画像もありますし、もう1つ、さらにもう1つあります。
具体的にどのようなプロンプトが使用されたかは教えていただきませんでしたが、この初期のスタイル参照を使用してこのような画像を取得できると教えていただきました。
再度、この機能は今週末に展開される予定であり、数日以内に、おそらくこのビデオをご覧になる時点で、その機能はレオナルドに搭載されているはずです。
今週、MicrosoftはVasa 1という非常に興味深い研究を公開しました。
基本的には、ヘッドショットの画像をアップロードし、オーディオクリップをアップロードし、それらを組み合わせて話すビデオを生成することができます。
これまでも、Sad Talker、DID、HeyGenなどのツールがこのようなことを行うことができました。
ただし、大きな違いは、顔の感情の表現の量、動き方、まばたき方、眉を上げ下げする方法、頭や体を動かす方法など、ビデオでの表現が本当に際立っていることです。
一つの例を紹介します:もしかしたら、あなたは今、人生を変えたいと思っている場所にいるかもしれません。そして、あなたの魂の奥深くに、あなたが決断しなければならないことがあるかもしれません。
そしてもう一つの例を紹介します:もしランニングに行く予定があり、フルで走る時間がない場合は、一部だけ走ってみてください。
もし今日ジムに行く予定があるけれど、通常のトレーニング時間が取れない場合は、腕立て伏せをしたり、階段を上り下りしたりしてみてください。
これは、見た目が漫画のようなイメージでも機能します。例えば、私は驚かないわ、全てを長持ちさせて、何度も心を傷つけられてきたから、数えるのをやめたの。
これはMicrosoftによって公開されており、深いフェイクの可能性を懸念しているため、いつアクセスできるかわかりません。
彼らは、安全に公開できると感じるまでリリースしたくないと述べています。
彼らがその閾値が過ぎたと感じる時期がいつかはわかりませんが、私は、この技術をしばらく見ることができないかもしれないと感じています。
しかし、Microsoftとは別の企業が、おそらく同様のものを早く手に入れることができるようにするでしょう。
個人的には、これはポッドキャストなどに本当に良いと思います。例えば、インタビューをしているときにビデオ対ビデオのポッドキャストができない場合、純粋にオーディオで作業しているときに、後でビデオを作成し、ゲストの頭を入れたり、自分の頭を入れたりできます。
そして、実際に私たちがリアルな会話をしているように見せることができます。
誰かをだますことはできないと思います。
将来のビデオのための楽しいコンセプトだと思います。
インタビューをしているときに実際にビデオを録画できない場合、そのようなことは、ゲームアセットや3D映画などを作成するのに本当に役立つと思います。
今週リリースされたインスタントメッシュという新しい研究があります。これは、2D画像をアップロードして、それを3Dオブジェクトに変換してダウンロードできるようにするapache 2.0オープンソースライセンスのもとで公開されました。
そして、これにはHugging Faceのデモさえあり、今すぐ楽しむことができます。
このロボットの画像を取って、そこに投げ入れて、私たちに何を生成するか見てみましょう。
私は単にそれを入力画像としてドラッグします。
生成をクリックすると、最初にバックグラウンドを削除することになりますので、まずそれが起こるのを見ることになります。
背景のないロボットがあり、3Dバージョンを処理しています。
約30秒かかりました。
予測されるこのロボットの複数のビューと角度を生成し、そしてここで私たちのためにこの3Dオブジェクトを作成しました。私はobjファイルまたはglbファイルとしてダウンロードできます。
完璧ではありません。
このようなものをそのままゲームに入れることはありませんが、ブレンダーなどに引っ張り込んでクリーンアップしてゲーム用に準備することができる素敵なラフドラフトがあります。
まるで私がmixamoに投げ込んで、今週私の新しいキャラクターに踊ってもらったようです。
スプラインツールは、彼らのアプリ内で3Dイメージにテキストを追加しました。ですので、spline.design.aiに行って生成すると、月額24ドルで3Dイメージを生成できます。
私はこのスプラインツールが本当にクールだと思いますし、私が見てきた限りでは、かなり良い3Dイメージを生成しています。
しかし、一方で、私たちはmeshi.aiも持っています。私の意見では、私が見ている限りでは、同じくらい良いイメージを生成しており、無料で行うオプションもあります。
それでも、今週はアドビからもいくつかの重要なニュースがありました。
気づいていなかった場合、ナショナル・アソシエーション・オブ・ブロードキャスターズのNABカンファレンスがラスベガスで開催されていました。
今年のイベントの大きな話題はAIで、多くの企業がビデオの世界で何をしているかを発表するために集まる大きなイベントです。
そして、アドビが披露したこのデモは本当に驚きました。
ここで、車の後部座席のブリーフケースを見ているシーンが見られます。このブリーフケースには散らばったダイヤモンドが数個入っています。
彼らは「オブジェクトの追加」ペン選択をクリックし、ダイヤモンドがあるエリアを選択します。
そして、黒いベルベットの布の上に大量のダイヤモンドの山と入力し、生成をクリックします。
サンプルがいくつか提供されます。
彼らは最初のものを選択し、今やダイヤモンドでいっぱいのブリーフケースのビデオができました。
ビデオカメラが移動するとき、すべてが予想通りに動いているのがわかります。
彼らはまた、ビデオシーンから直接オブジェクトをマスクして削除する能力も披露しました。
彼らはここにこの種類の電気ボックスを持っています。
それを強調し、オブジェクトを削除するをクリックし、そのビデオから削除されました。
ビデオは通常通り再生されているのが見えます。
以前どこにあったか少し見えることができますが、線の一部が薄れているが、全体的にはかなり良いです。
他の例:ここでこの食堂の看板を取り除き、ここでこのバックパックを取り除きました。
この人は時計を見て、実際にその時計のスタイルを変えます。
彼らはこの男を連れてきて、彼にネクタイを投げかけます。
私がおそらくたくさん使うであろう機能は、クリップを延長できる機能です。
それはAIを使用して、このクリップの残りの部分がどのように見えるかを推測します。
彼らは延長をクリックすることができ、生成中であることを示し、再生ボタンを押すと、実際のビデオよりも長く再生されます。
非常に注意深く見ている場合に気づくことがある1つは、彼女の肌の色調です。
これは世界の大多数がおそらく気づかないことですが、AIツールをよく使用している場合、それがAIかどうかを判断するために探すであろう種類のものです。
しかし、ここを通り過ぎる際に彼女の顔の肌の色合いを見ると、生成された領域に到達すると、実際に彼女の肌が非常に滑らかになり、少し漫画っぽく見えますが、それでもかなり良いです。
そして、この間に披露されたもう一つのことは、Premierの中で直接使用できる他のモデルがあるということです。
私は本当に、本当にDaVinci Resolveがこれを取り入れることを願っています。私は主にDaVinci Resolveで編集をしていますが、これはゲームチェンジャーになる可能性があるので、Premierに戻るかもしれません。
これをチェックしてください:Pikaが利用可能であることを示すドロップダウンが表示されます。
もしPikaを使用してビデオを生成する場合、この次のバージョンのPremierでPikaを使用できます。
Pika Labsを使用して、ビデオの一部を生成させてみてください。
彼らはSoraを使用したバージョンを披露してさえいました。
OpenAIをクリックすると、夜の雨の中の都市のスカイラインがプロンプトビューで表示されます。
都市のスカイラインと雨のビデオを生成し、実際にSoraモデルをAdobe Premierに組み込んでいます。
これは私たちがSoraを使う初めてのチャンスかもしれません。
Premierに入る前に、フロントエンドのユーザーインターフェースが得られるかもしれませんが、私はそれに賛成です。
それは本当にすごいです。
Runwayと統合する予定のようです。
あなたの好きなAIビデオ生成モデルが何であれ、Pika、Runway、またはおそらくSoraであれ、Premierの内部で直接ビデオを生成できるようになります。
私はキャリアとしてビデオを作成する人間として、これ以上に興奮することはありません。
私は本当にDaVinciが欲しかったのですが、私が最も馴染みのあるプラットフォームですが、これはすごいです。
これはコンテンツクリエイターにとって大きな進化になるでしょう。
もしビデオを作成し、Pika、Runway、Soraで生成し、インペインティング、アウトペインティングなどをビデオ編集プラットフォーム内で行う能力があるなら、日常的に使用するビデオ編集プラットフォームでゲームが変わります。
私はDaVinci Resolveを言及しました。
NABイベントでも新しいAI機能を含むいくつかの発表がありました。
その中の1つがAIカラーグレーディングで、私はこれらのビデオであまりやらないことですが、おそらくもっと上手になるべきです。
私は背景にたくさんの色を追加するのが好きですが、カラーグレーディングはあまり得意ではありません。
私はAIカラーグレーディングを楽しみにしています。ビデオに一貫した外観を与えるだけでなく、AI搭載のモーショントラッキングも追加します。DaVinci ResolveのStudioバージョンをお持ちの場合、すでにAIモーショントラッキングを行うマジックマスクという機能があります。
個人的には、ここでの大きな違いについては完全には理解していませんが、DaVinci Resolveのユーザーとして、すべてを手に入れて試してみることにワクワクしています。
これらの機能は現在利用可能なDaVinci Resolve 19に含まれています。
そして、もう少し怖い、よりディストピア的なニュースとして、米空軍が初の成功したAIドッグファイトを確認しています。
基本的に彼らがしたことは、AIによって飛行できるジェットを持っているということです。
実際には、AIをオーバーライドして必要に応じて制御を取るために人間をジェットに乗せました。
そして、完全に人間によって制御されたジェットとドッグファイトを行いました。
記事によると、この犬戦は成功し、AIジェットに乗っていた人間は実際にはコントロールを取る必要がありませんでした。
しかし、彼らは犬戦の勝者が誰だったかは言っていませんでした。
彼らはAIが人間パイロットよりも優れていたかどうかは言っていませんでした。ただ、実際のジェット機で成功したAI犬戦を行ったと述べています。
最後に、最近AIの世界で大きな話題となっているいくつかのAI対応ガジェットについて話しましょう。おそらく最も大きなニュースはHumane Ai Pinであると言えるでしょう。
それについて出ているほとんどのレビューはかなり否定的であり、Marquesがこれを「私がレビューした中で最悪の製品」と題するべきだったかどうかについて多くの論争があります。
今のところ、しかし、今日のこのビデオで話したいことではありません。
最近AIの世界で登場している他のAIガジェットを紹介したいと思います。
私たちはRABBIT r1について話しました。
これは、タスクを訓練することができるデバイスです。
そのタスクを次に行う際、それはより自律的に行うことができるかもしれません。
もし、フライトを予約したり特定のタイプのメールを送ったり、slackで誰かに返信するのを手伝ってほしい場合、それを行う方法がかなり一貫している場合、R1にその方法で毎回行うように訓練することができます。
それは一種のポケットAIエージェントです。
それ自体が新しいニュースではありません。
RABBIT r1に関するニュースは、今週出荷が始まるということです。
数ヶ月前に、リワインドペンダントについて話しました。
それはあなたが身に着ける小さなネックレスで、中にマイクが付いています。
それは一日中あなたの会話を聞いており、その日の終わりに、コンピューターで会話を振り返ることができます。
それは拡張された記憶装置のようなものでした。
この会社リワインドとそのペンダントは、限りないペンダントとして再ブランド化され、もはやネックレスではありません。
申し訳ございませんが、この小さなクリップは、シャツやポケットなどにクリップして使用するもので、同じことをします。
一日中録音しているので、後でコンピューターに戻って会話を振り返り、会話の要約、メモ、そして話した内容を取得することができます。
しかし、おそらくほとんどの人が気にしているのはプライバシーの問題です。
一日中この小さなペンダントを身に着けていると、録音されたくない人がいた場合どうなるのでしょうか?
私はただ一日中すべてを録音しており、人々が好むかどうかに関係なくです。
しかし、実際にはそういうわけではありません。
彼らのローンチビデオで、彼らはこの例を示しています。「ねえ、サム、久しぶりだね。」と言って、誰かが応答するが、新しいスピーカーが話しているだけで、録音の許可を得ていない。そして、ペンダントを身に着けている人が言います。「この会議は私にとって本当に重要で、あなたのアドバイスを覚えておきたいんです。」
「私たちのチャットを録音してトランスクライブしてもいいですか?」
返答は「もちろん、問題ありません」となり、その人の名前がここに入り、実際に許可が得られたことを示すチェックが付けられます。そして、そのスピーカーが言ったことを読み返すことができるようになります。
これは実際にかなり役立ちそうですね。
それはまるで脳の拡張のようなものですね?
一日中歩き回るだけです。
私は非常に頻繁に参加するネットワーキングイベントや会議などでこれを使用することができると思います。
たくさんの人に会い、たくさんの新しい名前を覚え、たくさんの新しい顔を見ます。
そして、私がした会話の一部や、ポッドキャストに出演するなど、人々と約束したことの一部を覚えておかなければなりません。
まあ、もし私がこれのようなものを持っていたら、一日の終わりに戻って、自分が約束したすべての成果物や会話で話したこと、出会った人の名前を思い出し、すべてをすぐに振り返ることができます。
個人的には、これに本当に興奮しています。
私はこれをたくさん使う自分を想像できますし、同意事項が含まれているので、録音していることを知らせることができますが、あなたを録音しているわけではありません。
あなたが同意しない限り、私は自分の声しか聞くことができません。
お録音してもよろしいですか?
彼らがはいと言った途端、それは彼らの音声を録音し始めます。
それは本当にすごいと思います。
もしもあなたが基本的にChatGPTをイヤーバッドに直接組み込みたいと思っていたら、その会社は実際にChatGPTを新しいイヤーバッドに組み込んでいます。
実際には、イヤーバッド自体でAIを行っているとは思いません。
ChatGPTを使用するために、あなたの電話などに接続する予定です。
現時点では、API経由で通信しているため、インターネット接続が必要です。
とにかく、イヤーバッドをつけて、電話を別の場所に置いて、ChatGPTとチャットすることはできないと思います。
まだポケットに電話を入れておく必要があると思います。
その場合、この方法が、単に電話にChatGPTアプリを持っていて、Bluetoothヘッドホンを使ってChatGPTアプリと話すよりも大きな利点があるかどうか理解できません。
あなたがアプリを開く手間を省くことができるかもしれませんが、新しいバージョンのSiriなどが登場すると、それはあまり問題ではなくなると思います。
それは興味深いですが、私には少しギミックっぽく感じます。
ほとんどの人にとっては大きなセールスポイントには感じません。
ポケットに電話があれば、これらのイヤホンがあろうとなかろうと、そのテクノロジーにアクセスできます。
実際に役立つと思うのは、ロジクールがロジクールマウス向けのAIプロンプトビルダーを発表していることです。
私が実際に使っているように、私はG502ライトスピードを使っています。私のマウスはゲーミングマウスですが、本当に大好きで、今まで所有していた中でお気に入りです。
おそらく、ロジオプションソフトウェアをお持ちでしょう。
私のマウスには、1、2、3、4、5、6、7、8、9、10、11のボタンがあります。そして、ロジオプションツールを使って、それぞれのボタンに何をプログラムするかを設定することができます。
このマウスをプログラムして、ChatGPTのプロンプトを実行することができます。
たとえば、私はこのようなテキストの一部を選択し、私がプロンプトでトレーニングしたカスタムボタンを押して、選択した部分をChatGPTに挿入して翻訳することができるかもしれません。
日本語のウェブサイトを読んでいるとします。翻訳したい部分を選択し、マウスの特別なボタンを押して、それをChatGPTに投げて、翻訳してもらいます。
今頭に浮かんだランダムな例ですが、ChatGPTと連携するボタンをプログラムできるようですね。
この発表には新しいマウスの発売も含まれています。
彼らは独自のAIプロンプトボタンを搭載したシグネチャAIエディションマウスをリリースしています。
しかし、この特別なAIエディションマウスを持っていなくても、他のボタンをプロンプトボタンに変えることができるようです。
最後に、このBoston Dynamicsのロボットは、そのどこか不気味なところから、インターネット上で話題になり、バイラルになっています。
最近、このようなことを試していたので、実際にYouTubeのショート動画を作成しました。
もしBoston Dynamicsのこのロボットが立ち上がる動画をまだ見ていないなら、すぐに見る必要があります。
立ち上がる方法はいくつかある中で、最も不気味な方法を選ばなければなりませんでした。
そして、180度回転して、カメラに向かって歩いていきます。
私はかなり確信しています。Boston Dynamicsは、このビデオを投稿する際に人々を不快にさせることを知っていたと思いますが、同時にかなりクールな要素もあります。
この新しいアトラス001は、古いアトラス・ロボットに取って代わります。覚えているかもしれませんが、古いアトラス・ロボットはこんな感じでした。
新しい形状はずっと小さくなっています。
この古いバージョンはさまざまな油圧を使用していましたが、この新しいバージョンは電動で、はるかに静かです。
私はロボティクスが大好きです。私はそれが最も楽しい分野の1つだと思います。
私は自分自身についてあまり詳しくはありませんが、かっこいいロボットのビデオを見るのが大好きです。
それでは、今日はこれで終わりです。
再度申し上げますが、私は木曜日にこれらを録音していますので、私がこれを録音した後に新しいニュースが出たかもしれませんが、もしあれば、次週のAIニュースブレイクダウンビデオで取り上げます。
再度、このビデオの冒頭で述べたように、私はこの中で可能な限り多くのAIニュースビデオをカバーしようとしていますが、すべてを取り上げることはできません。
しかし、私が興味深いと思うすべてのAIニュースをfuturetools.ioニュースに追加しています。
このビデオでカバーしきれなかったすべてのニュースをチェックしてください。
また、一般的にFuture Toolsをチェックしてみてください。本当にクールで便利なAIツールを見つけることができる素敵な場所です。
無料のニュースレターに参加してください。無料のニュースレターに参加すると、最も重要なAIニュースと最もクールなAIツールをあなたの受信トレイにお知らせします。
そして、今日サインアップすると、AI収入データベースを提供します。AIを使用してお金を稼ぐためのクールで楽しい方法が記載されたデータベースです。
最後に、このアナウンスメントを完全にまとめる前に、まだであれば、新しいポッドキャスト、The Next Wave Podcastをチェックしてください。
YouTube.com/thenextwavepodで見つけることができます。
これは、AI分野のゲストと私自身と共同ホストであるNathan Landsとの間で、より深く掘り下げた、より長いフォーラムディスカッションを行う場所です。
これらのYouTubeビデオで話している内容が気に入っているが、さらに深く掘り下げたいし、倫理や影響、哲学などを含むより長い会話を聞きたい場合は、そのエピソードで超深く掘り下げています。
YouTube上のThe Next Wave Podをチェックしてください。
ビデオを見て、チャンネルに登録し、AIのウサギ穴をさらに深く掘り下げましょう。
再度チューニングしてくれて本当にありがとう、本当に感謝しています。
狂った週だったけど、春がますます深まるにつれてさらに盛り上がってきています。
このビデオのスポンサーとして再度GPTトレーナーに感謝します、本当に感謝しています。
そして、みなさん、チューニングしてくれて、私がインターネットで面白いと思うものを見るこのナードアウトフェストを見てくれてありがとう。
そして、私と同じくらい楽しくてワクワクすると感じてくれて、一緒にこのビデオを見てくれることがとても嬉しいです。
再度ありがとうございます、感謝の気持ちでいっぱいです。
次のビデオで会いましょう、良い一日を過ごしてください、怠け者にならないでください、混乱を避けるために購読できます、混乱を避けるために購読する、地図に購読する、地図に購読する、地図に購読する、そしてこのビデオを「いいね」してください。