Inflection AIの共同創設者であるムスタファ・シュリーマンがMicrosoft AIのCEOとしてMicrosoftに加わることを決断したことです。彼はGoogle DeepMindの創設者の一人で、昨年Googleを離れてInflection AIを立ち上げました。同社が開発したチャットボット「Pi」は高い評価を受けていました。MicrosoftがインフレクションAIを買収したわけではありませんが、スタッフを雇用するために6億5000万ドルを支払うことに合意しました。これにより、AIレースにおいてGoogleとMicrosoftが競合している状況がさらに加速することになります。 NVIDIA GTCカンファレンスでは、次世代のBlackwell GPUが発表され、AIとロボティクスの訓練に焦点が当てられました。また、デジタルツイン技術や新しいAIプラットフォーム「GR00T」などの革新が紹介されました。これらの技術は、より効率的かつ低コストで大規模な言語モデルを訓練することを可能にします。 一方で、イーロン・マスクはGrok-1をオープンソース化し、AppleはGoogleやOpenAIとのパートナーシップを模索しているとの報道がありました。さらに、Stability AIからの主要な研究者の離脱や、Midjourneyの利用規約の変更など、AI業界ではさまざまな動きがありました。
公開日:2024年3月23日
※動画を再生してから読むのがオススメです。
今週はかなりの量のAIニュースが出ていますが、私はNVIDIA GTCカンファレンスから戻ったばかりなので、あなたを最新情報に保つために少し追いつくのに忙しかったです。
しかし、今週最も驚いたニュースはおそらく、この右側にいるムスタファ・シュリーマンが、リード・ホフマンと共にInflection AIを設立した人物が、MicrosoftのCEOとして参加することを決定したことです。
ムスタファ・シュリーマンという名前が馴染みがない場合、それは興味深く、驚くべきことであり、その理由は次のとおりです。
シュリーマンは、Googleが買収する前のDeepMindのオリジナルの創設者の1人でした。
昨年、彼はGoogle DeepMindを離れてInflection AIを立ち上げ、もしあなたがPiチャットボットを使ったことがあるなら、それに馴染みがあるかもしれません。
PiはInflection AIによって作られ、私の意見では、かなり良いチャットボットでした。
あなたの電話での会話に声をかけて会話するための最高のものの1つです。
Googleで始めた人が自分の会社を立ち上げて、その後Microsoftに行くという非常に興味深い展開です。現在、GoogleとMicrosoftはAIレースの勝者を目指してほぼ対等に戦っています。
Inflection AIが完全に終了したようには聞こえませんが、Piチャットボットの進捗を停止する予定のようです。
Microsoftは技術的にはInflectionを取得していません。
ただし、Microsoftはインフレクションに対して6億5000万ドルを支払うことに同意しました。
一部の人々は、Microsoftが実際にこれを構築したのは、独占禁止規制当局からの長期的な審査を避けるためだと推測しています。
そして、もしインフレクションに投資していたら、投資家にとっては打撃を和らげるものでした。
インフレクションは、元の投資額以上の金額を支払うことを約束し、同時にスタートアップの株式を保持することを許可しました。
とにかく、Googleと長い間一緒にいた人が、おそらくGoogleが動きが遅すぎてプラットフォームの成長に制約が多すぎると感じて自分のことを始めるために去ったのを見て、本当に驚くべき動きです。そして、その後、Microsoftに行くことを決めたのは、多くの同じような厄介な手続きがあると思われるが、現在AIの分野で先頭を走っているようにも見えるからです。
私の目には狂った話です。
このAIの世界全体の楽しみの一部は、AIの世界の主要な人物たちの間でこのようなドラマが展開され、お互いにチェスをプレイしているように見えることであり、お互いの駒を奪い合っているようなものでもあります。
しかし、今週のニュースの大部分は、私がちょうど戻ってきたGTCカンファレンスから出てきました。
GTCカンファレンスに馴染みがない場合、それをAIオタクのためのウッドストックと呼ぶ人もいます。
ジェンセン・ファンがイベントの最初の基調講演を行ったとき、彼はサンノゼ・シャークスがプレイする同じアリーナで行いました。そのアリーナは約17,000人を収容できます。
アリーナを見渡すと、空席はないように見えませんでした。
狂ったような光景でした。
ジェンスン・フアンが基調講演を行うためにロックコンサートのような雰囲気が漂っていました。
基調講演中、ジェンセンは次世代のBlackwell GPUを発表しました。
この新しいGPUは大規模言語モデル推論において最大30倍の性能向上を実現しています。
そして、これらの新しいチップは、どこでも組織が25倍のコストとエネルギー消費量で、兆パラメータの大規模言語モデルをリアルタイムで生成および実行できるようにします。先行するホッパーやGH100、GH200といった前任のGPUよりも。
それらは、これらの新しいBlackwell GPUの前身であるグレース・ホッパーGPUでした。
あまり詳しくは立ち入りたくありませんが、基本的にはこれらの新しいチップは、よりエネルギー効率が向上し、同時により速く大規模な言語モデルをトレーニングできるようになります。
これらの大規模言語モデルがトレーニングされるほど速くなれば、それだけ大きなモデルをトレーニングするコストが安くなり、より多くの計算がそれらに投入されてより良い結果を得ることができます。
NVIDIAのGTCでの大きなテーマの一つは、ロボットのトレーニングも含まれており、新しいAIプラットフォームであるGR00Tが発表されました。
GR00Tは、人型ロボット用の汎用基礎モデルであり、さまざまなロボット開発者によって微調整されるモデルであり、特にロボティクスに最適化されています。
NVIDIAのジェンスン・フアンが絶対に夢中になっていた用語がありました。
これは、今後数ヶ月や数年でよく耳にすることになる用語であり、それがデジタルツインという概念です。
デジタルツインとは、これらのAIが操作される実世界環境を模倣するように設計された仮想環境のことであり、このデジタルツイン、この仮想環境で事柄をシミュレートしてテストすることができます。
そして、この発表の一環として、彼らはEarth 2を発表しました。これは、地球全体のデジタルツインです。
Earth 2は、前例のないスケールで天候や気候をシミュレートし、視覚化するために設計された画期的なAPIを提供し、より正確な予測とタイムリーな警告の道を開いています。
ハリケーンや竜巻、地震などのような災害について、事前に予測できるようになるという考え方です。
実際には、これらのシミュレーションを使用して、デジタルツインズではなく、極端な天候をより遠くまで予測することができるため、これらの出来事が起こったときにより良い予防や準備をすることができます。
また、ジェンセンのスピーチ中に、量子コンピューティングについて話しました。
ジェンセンは、NVIDIAが量子コンピュータを所有していない地球上最大の量子コンピューティング企業であると主張しています。
そして、彼らは実際に量子コンピュータのデジタルツインを作成できると述べました。
彼らはエミュレータ、量子コンピュータのシミュレーションを作成し、実際に量子コンピュータが出力するであろうものをテストすることができますが、この量子コンピュータのエミュレータを使用しています。
この概念は、私が量子コンピューティングについてあまり詳しくないため、まだ少し曖昧です。
実際には、それはウサギの穴です。
私は今後数週間や数ヶ月でその中に飛び込む予定です。
それは私がもっと学びたいと思っていることです。
私は量子コンピューティングについて学ぶと、明らかに量子コンピューティングについて共有したいと思うので、ビデオで話すことにします。
しかし、ジェンスンが説明した方法は、彼らが量子コンピューティングのエミュレータを構築できるというものでした。
もしそれが本当なら、本物の量子コンピュータに時間とお金を費やす意味は何なのかと感じます。
私自身もそれをよりよく理解し、明確にする必要がありますが、それは私がもっと深く掘り下げたいと思っている魅力的な概念です。
私は昔ながらの考え方です。
私はそのようなイベントに行くときに大きなバックパックを持ち歩くのが好きではないので、少しのTDメモ帳を持参し、基調講演中にいくつかのメモを取りました。
そして、ジェンスンの基調講演中に座った多くの異なるプレゼンテーションで繰り返し出てきた3つのキーワードがありました。私はジェンスンと一緒に行ったプライベートプレスQ&A中に座った際にそれらを聞くことができました。
そして、それらの3つのキーワードは、デジタルツイン、合成データ、およびマルチモダリティです。
これらの3つのキーワード。
今年はこれらを聞いてください。
おそらく、それらをたくさん聞くことになるでしょう。
デジタルツインとは、実世界にあるもののクローンのようなものを指し、シミュレーション内で実験やテストを行うことができるシミュレーション内でのものを実際の世界に持ち込む前に。
合成データというのは、基本的にコンピューターによって作成されたデータであり、人間によって作成されたものではありません。
そして、AIで訓練されます。
たとえば、合成データは、Soraが公開されているたくさんのビデオで訓練されたかもしれませんが、人々がリアルに見えるが実際にはリアルではないアンリアルエンジン内でビデオを作成したかもしれません。
そして、それも訓練の一部として使用されました。
まあ、アンリアルエンジンで生成されたビデオは、実際の世界で作成されたものではないため、技術的には合成データと見なされます。
これはゲームエンジン内で作成され、その後AIに供給され、AIにこれが現実世界であると思わせるために使用されました。
そして、三番目は多様性であり、おそらくこの用語にはすでに精通していると思います。
私は、より高度な言語モデルがリリースされるにつれて、ますます使用されると考えています。
マルチモダリティとは、基本的にはこれらの言語モデルがテキストだけでなく、オーディオ、ビデオ、画像など、さまざまなメディアのモダリティとも連携することを意味します。
それらはNVIDIAのGTCからの3つの重要な用語、重要なポイントです。
これらは、今年はたくさん見ることになるであろうものです。
デジタルツイン、合成データ、そして大規模言語モデル内でのより多様なモダリティ。
このGTCイベントは、私にとっても特別なものでした。なぜなら、私の好きなクリエイターの中で一緒に過ごすことができたからです。
他のAIマット、Matt vid pro、私の親友であるBill of all to doと一緒に時間を過ごすことができました。私たちは複数のイベントで何度も偶然出会うようです。
400人以上の購読者を持つニューロンAIニュースレターのクリエイターであるピート・ファン、AI advantage YouTubeチャンネルのクリエイターであるIgor Pognoi、Python simplifiedのMariaとも一緒に過ごすことができました。
AI分野の他のクリエイターたちとも一緒に過ごすことができました。
AIとテクノロジー、YouTubeの重なりについて話し、熱中するのはとても楽しかったです。
今日のビデオはNVIDIA AIの提供です。
私は過去の動画でNVIDIA AIについてたくさん話してきました。なぜなら、私自身が使って愛しているツールだからです。
NVIDIA AIに馴染みがない場合は、1つのテキストプロンプトを入力すると、長いビデオが生成されるツールです。
このツールを使用して、株式ビデオ、スクリプト、ナレーション、効果音、音楽が含まれた10、15、20分のビデオを生成することができます。
すべてがこの1つのビデオで作成されます。
最近、プラットフォームに自分の声をアップロードし、ビデオで自分の声を使用する機能が追加されました。
とても簡単です。
NVIDIAにログインし、左側のボイスタブをクリックし、ボイスを追加して、30秒間の自分の声をアップロードします。
ビデオを作成する準備ができたら、NVIDIAダッシュボード内のマイホームページに移動し、AIビデオの作成をクリックします。
そして、プロンプトを入力します。
これは実際に長いプロンプトとよく合います。
私は、ビデオでの照明の重要性についての長いYouTube動画を作成するためにプロンプトを使用する予定です。
これは、初期の映画製作者やYouTuberがより良い出力を得るために取り組むことができる最初のことの1つです。
予算内で素晴らしい照明を得るための実用的な方法を提供します。
言語は非常にシンプルで理解しやすく保ちます。
ビデオを非常に事実として始め、段々と狂気じみたユーモアを加えます。
進むにつれて、マット・ウルフの声を使用します。
約12分の長さが良いでしょう、そして字幕を追加します。
私の声を使用してビデオを生成するように指示しています。
ビデオをより良く調整するためにいくつかの質問をしてくれました。
観客をYouTuberのように見せるつもりです。
明るい色を使ってみましょう。
数分後には、台本、音声、字幕、ナレーションがついた完全なビデオができました。
ほぼ12分の長さで、私の声を使っています。
これを見てください。
光源があります。
では、次は?
さて、その光を操る時が来ました。まるで人形使いのように。
さらにクールなことに、このビデオを完全にテキストプロンプトで編集することができます。
イントロを変えて冗談で始めたり、最後にチャンネルに登録するように促すためのアクションを追加したりするように指示できます。
背景音楽を変更するように指示したり、声を変更するように指示したり、思いつくことなら何でもできます。
お尋ねすることができます。
さらに詳細に編集したい場合は、ここをクリックすることができます。
ビデオ全体の映像を変更することができます。単に選択し、ここで探して、ライブラリで利用可能なストック映像で置き換えることができます。
スクリプトの任意の部分を編集することもできます。上部に移動し、スクリプトの編集をクリックして、スクリプトに追加することができます。
ただし、変更を適用するのが好きです。
数分後、スクリプトが変更され、新しいナレーションが追加されます。
無料で最大4つのビデオを作成することができます。
しかし、本気でビデオ制作に取り組むのであれば、プラスプランにアップグレードしたいと思うでしょう。
私が持っているのはそれです。
それにより、ウォーターマークなしでビデオをエクスポートすることができます。
リンクを説明欄に記載しておりますので、詳細をすぐにご確認いただけます。
このビデオのスポンサーであるNVIDIA様、本当にありがとうございます。
また、今週、イーロン・マスクがGrok-1をオープンソース化しました。
彼は公に利用可能な最大のオープンソースモデルをリリースしました。
これは3140億パラメータモデルであり、私は以前のビデオでかなり話している専門家アーキテクチャの混合を使用しています。
Apache 2.0ライセンスの下でリリースされたため、それをベースにして構築したり、改良したり、販売したり、商用利用したり、ほぼ何でもできます。
オープンソース化された際に、それが3140億のパラメータであることを知りました。
それは以前知らなかったことでした。
また、そのモデルが専門家のミックスモデルを使用していることも知りませんでした。
このモデルのサイズのため、ほとんどの人にとってはローカルマシンで実行するのはかなり難しいですが、Grok-1を中心に構築したい場合はできます。
また、Perplexityやmind studioなどの他の製品がたくさん登場する可能性が高く、これらのツールはAPIやオープンソースモデルを使用して、それらのモデルを自社プラットフォームに組み込んでいます。
そして、今週のかなり衝撃的なニュースのもう1つは、AppleがiPhoneでGeminiを搭載した機能のためにGoogleと提携を模索していると報じられています。
これはただの報告や噂です。
これが実際に起こっているという両社からの確認はありません。
今年のWWDCでは、Siriに関する大規模なアップデートが行われる可能性が非常に高く、おそらくGemini 1.5がSiriのエンジンとして使用されるかもしれません。
まだ誰も本当のことを知りません。
この記事によれば、同社はOpenAIとの議論も行っており、GPTモデルの潜在的な使用も検討しているとのことです。
Appleが何を使用するかは完全にわかりませんが、iPhone内の最初のAIの実装が実際にはAppleが開発したAIではない可能性がかなり高いようです。これは興味深いことです。なぜなら、Appleは実際に他のどの企業よりも多くのAI企業を買収しているからです。
これらのAI企業を買収して自社内でAIテクノロジーを開発するために協力しても、最終的にはGoogleやOpenAIを使用して、自社の電話やエコシステム内のAIを動かす可能性があるというのは非常に興味深いです。
今週、Stability AIは安定したビデオ3Dを紹介しました。
これは、3D技術の分野を進化させ、大幅に向上した品質と視認性を提供する、Stable Video Diffusionに基づく生成モデルです。
基本的に、入力画像に基づいて軌道ビデオと呼ばれるものを生成します。
ここに入力画像があります。
これが0、1、2、3 XLが生成したもので、この画像の異なる角度です。
これが安定した0、1、2、3が行ったことです。
そして、これが安定したビデオ3Dが行ったことです。
以前のモデルよりも、2D画像を取って他の角度からどのように見えるかを推測する際に、より正確であるように見えます。
そして、ここでは、このプラットフォームで生成された他の3Dオブジェクトの例があります。
現在は非商用で利用可能ですが、モデルの重みはHugging Faceで入手できます。
もし商業目的で使用したい場合は、Stability AIのメンバーシップにサインアップすることができます。おそらく月額20ドルで、彼らのどのモデルでもほぼ使用できると思います。
今週はStable Diffusionについて話していますが、Stability AIの主要な研究者が会社が苦境に立たされる中、辞任しています。
基本的に、Stability AIで働いていたStable Diffusionを開発した人々は、ほぼ全員が去ってしまいました。
最近、Stability AIはCEOのAhmad Mastakを批判する人がいて、会社がほぼ破産寸前であり、彼が多くの間違いをしていると言われています。
最近、彼らはClipdropを売却しました。これは彼らが1年未満前に買収した会社です。
最近、それをJasperに売却しました。
Stability AIがおそらく最も知られているStable Diffusionを開発した人々は、ほぼ全員が去ってしまいました。
CEOのAhmad MastakはStable Diffusionを構築する際にはあまり関与していませんでしたが、それを開発した研究者の一部は彼の元にいました。
他の研究者の一部はRunwayで働くことになりました。
一部はまだStability AIに残っています。
Stable Diffusionを構築するのに役立ったほとんどの人が、実際にはStability AIには残っていないようです。
私たちの未来は少し不確かに感じられますが、Stable Diffusion自体はオープンソースです。
それに使用するほとんどのウェイトは一般に公開されています。
Stable Diffusionはどこにも行かないでしょうが、Stability AIの未来は誰にもわかりません。
その展開を見守るしかないか、その後のドラマを見守るしかないでしょう。
今週、Midjourneyは利用規約を微調整し、Midjourneyを使ってアートを作成することで訴えられた場合、他の多くの企業は逆の方向に進んでいます。
Google、OpenAI、Adobeなどの企業は、プラットフォームを使用して訴えられた場合、実際に協力すると述べています。
Midjourneyの新しいポリシーは、法律で許可される範囲内で、サービスや資産の使用、またはこれらの条件の違反に関連する第三者の請求から生じるコスト、損失、責任、および弁護士費用を含む費用と損失から、私たち、私たちの関連会社、および私たちの人員を免責し、保護することになります。
Midjourneyを使用して著作権のある画像を生成した場合、それはあなたの責任です。
他の画像生成器を使用すると、少しでも保護されるかもしれません。
しかし、Midjourneyは「自己のリスクでサービスを利用してください」と述べています。
これについて触れてみたいと思います。
Q-Starやこの新しいQ-Starのリークについて他の多くのYouTubeビデオを見たかもしれませんが、私が見てきた限りでは、おそらく偽物だと思われます。
最近見たもののほとんどがほとんど価値がないように思われます。
基本的に、そのリークはエネルギーベースのモデルを使用していると主張しています。
このアプローチは、今日のほとんどのAIシステムが使用しているものとは異なります。
一度に1つずつ次の単語を推測する代わりに、エネルギーベースのモデルは一度に全体の応答を見ます。
彼らは、パズルの欠けている部分を見つけるように、質問に最も適した答えを見つけようとします。
これにより、AIが複雑な質問に理解し、応答するのが人間と同じように簡単になるとされています。
しかし、再度言いますが、Q-Starについて見てきたものはほとんどが完全な推測に過ぎません。
サム・アルトマンはQ-Starが存在することをある程度確認し、最近のレックス・フリードマンのインタビューでも再度それをある程度確認しましたが、まだ正確な情報はありません。
おっしゃるQスターについて話せますか?
それについてはまだ話す準備ができていません。
でも、そういう答えは話すべきことがあるということを意味します。
とても神秘的ですね、サム。
また、このMera Mariotti氏によるウォールストリートジャーナルのインタビュー、そしてちょうど覗いたサム・アルトマン氏のインタビューから、Soraに関するさらなる詳細を得ました。
これらのテックリーダーのどちらも、Soraが実際に何に訓練されたのかということは言いませんでした。
Soraを訓練するのにどのようなデータが使用されましたか?
公開されているデータとライセンスされたデータを使用しました。
YouTubeの動画?
実はそれについてはよくわかりません。
ビデオはFacebookやInstagramからですか?
もし彼らが一般に利用可能であれば、使用可能であり、使用可能であれば、データがあるかもしれませんが、私は確信がありません。
私はそれに自信がありません。
Shutterstockはどうですか?
あなたたちと彼らとの取引があると聞いています。
使用されたデータの詳細には触れませんが、それは公に利用可能なデータまたはライセンスされたデータでした。
実際にSoraを見る時期のわずかなヒントも得ましたが、ここではあまり情報がありません。
あなたは最終的にと言いました。
いつが最終的になのですか?
私は確実に今年中を期待していますが、数か月かかるかもしれません。
11月に選挙があるけど、それより前か後ろか、どう思う?
あなたは、誤情報や有害なバイアスの問題に対処することを考慮すべきです。
私たちは、世界の選挙やその他の問題にどのように影響するかに自信がないものは何もリリースしません。
Soraのクリエイターの一部は最近MKBHDポッドキャストに出演し、MarquesがSoraをいつ期待できるか尋ねました。
タイムラインを提供していないことはわかっていますが、今はテスト段階にあるんですよね。
近いうちに一般利用可能な段階になると思いますか?
近いうちにはないと思います。
再び、Maraが数ヶ月以内にかもしれないと言っていますが、選挙を考慮に入れています。
Soraのチームは、近いうちには一般には利用できないと言っています。
誰にもわからないですね。
OpenAIについて話しているので、GPTストアについても少し話しましょう。
それはジャンクアプリでいっぱいになっています。
個人的には、これが起こると予想していました。
GPTストアが登場したとき、カスタムGPTは数分間本当にクールだとツイートしました。
そして、その後誰もがそれについて話すのをやめるでしょう。
そのようなことが起こったようですが、誤解しないでください。
実際、カスタムGPTは非常に強力だと思います。
個人的には、他の誰かが構築したカスタムGPTを使用する理由を見つけたことがありません。
自分自身のカスタムGPTを作るのが大好きです。
自分自身のカスタムデータを与え、自分自身のカスタムシステムプロンプトを与え、基本的に私が求めることを特に行うように設計されたチャットボットを作るのが大好きです。
他の人が作った他のGPTSを使いたいと思ったことはありませんが。
私はいくつかをテストしてみました。
それについて過去のビデオも作りました。
良いものもありますが、私は自分のビジネスで必要なもののために独自のGPTを作成し、カスタムワークフローを作ることが多いです。他の人が作ったGPTSを探すよりも。
その理由の一部は、そこにはたくさんのジャンクGPTSがあるからです。
多くのものは同じ名前さえ持っており、それらを見つけるのが非常に難しいです。
そうですね、今はGPTストアにはたくさんのジャンクがあります。
その他のニュースとして、今週、テネシー州がミュージシャンや他のアーティストをAIから保護する最初の州となりました。
彼らは、Ensuring Likeness Voice and Images Security Actという新しい法律を作成しました。巧妙にアクロニムをElvisとして作成しました。
これはすでにテネシー州に存在していた法律でした。
しかし、古い法律は芸術家の名前、写真、肖像を保護していました。
新しい立法には、AI固有の保護が含まれ、今では許可なしにAIを使用して芸術家の声を模倣することを禁止しています。
これは私にはどこか奇妙に思えます。
なぜ彼らがそれをやっているのかは理解できます。
ただ、多くの芸術家は似たような声をしているだけです。
もし私の声が偶然にもDrakeの声とまったく同じように聞こえ、私がDrakeのように聞こえる歌を作ったら、彼らは私を訴えることができるのでしょうか、私の声がただDrakeのように聞こえるだけなので、非常に不明瞭でグレーな領域です。
そして、それがテネシー州の法律であることもあり、テネシー州外でどのように適用されるのか?
わかりません。
私は、芸術家たちがコピーされたくないと思うので、このような法律がますます現れると思いますが、実施が非常に困難であり、人々が単に音楽を作り続けるのを止めないと思います。
そして、それがAIで生成されたものであるとは言わない。
もしあなたが私のようなYouTuberであれば、動画がAIで生成されたことを明記する必要があります。
ただし、いくつかの注意点があります。
それが明らかにAIで生成されたものである場合や、アニメーションシリーズのようなものである場合、実際にAIで作成されたと主張する必要はありません。
人々がAIであることを知らないかもしれない、リアルなものについては主張する必要があります。
AIとして主張する必要がありますが、AIが進化するにつれて、もし主張しなかった場合、それがAIであることをどうやって知るのでしょうか?
おそらくそれは名誉制度のようなものですが、それはYouTubeの新しいルールです。
時間が経過するにつれて、それをどのようによりよく施行するかを見極めるでしょう。
YouTube動画を作成している人々にとって興味深いニュースです。
さっとロボティクスに戻ります。
Redditでこれを見つけました。
Unitreeは、明らかにこれがロボットに求められていることだから、どんな油圧も使わずにバク宙をする初の人型ロボットを作りました。
確かに見た目はすごくクールだけど、エンターテインメント以外での実用的な使い道が思いつかないんですよね。
そして、Open InterpreterからOpen Interpreter 01という新しいAIガジェットが登場します。
基本的には、手に持つ小さな円形のデバイスです。
コンピューターの前にいるときに、天気をチェックしたり、誰かにメッセージを送ったり、メールに返信したり、Slackメッセージを送ったりするように、それを訓練します。
コンピューターで、どうやってそれをするかを訓練します。
そして後で、コンピューターから離れているときに、Slackで何々というメッセージを送るときに、この小さな円形のデバイスに話しかけます。
あらかじめ訓練しているので、それがどうやってその手順を実行するかを知っています。
私にとって、それはRABBIT R1と競合するように設計されているように見えます。
多くの類似した機能を持っていますが、それを訓練するという点で異なります。
訓練されると、将来そのようなことをする方法を知っています。
ただし、このデバイスの大きな違いは、完全にオープンソースであることです。
コードやCADデザインなど、すべて無料でオープンソースです。
そのデバイスを作ることができます。
同じ方法でプログラムすることができます。
これは実際に今すぐ使用できるか、Open Interpreterから99ドルで予約することができるかもしれない、クールな小さなAIデバイスです。
しかし、自分で作ってみたい場合は、すべての計画が利用可能でオープンソースであるため、自分で作ることができます。
かなりクールです。
彼らのTwitterデモ動画にリンクします。
それは8分半のデモです。
このビデオで全体を走らせて、このビデオを狂ったほど長いビデオにするのは避けたかったんですが、もうかなり長くなっていますね。でも、かなりクールに見えます。
そして、AIを活用したデバイスに興味があるなら、どこにでも持ち運べてコンピューターで物事をコントロールできるデバイスを見ることを強くお勧めします。
最終的には、こういったものは単なるスマートフォンのアプリになると思いますが、それは私の推測です。
それが私の考えです。
今日はそれだけです。
このビデオを楽しんでいただけたら嬉しいです。
今週はたくさんの出来事がありました。
NVIDIAのGTCカンファレンスにいる間に、何か見逃してしまったかもしれません。
NVIDIA GTCカンファレンスの完全な解説を考えています。
もしご興味があれば、このビデオでカンファレンスの最大のハイライトをカバーしたと感じています。
しかし、もし興味があるようであれば、裏側のような、体験がどんな感じだったかのビデオ、CESイベントや拡張現実世界エキスポイベントでやったようなものをNVIDIA GTC用にも作るかもしれません、もし興味があるようであれば。
しかし、このチャンネルについて学んだことは、多くの方々が高いレベルのニュースを求めているということです。
つまり、今週知っておくべきすべてを最も迅速な方法で知りたいということです。
そして、それを提供しようとしています。
しかし、深い掘り下げのビデオも作るのが好きです。
再度チューニングしていただきありがとうございます。
まだでしたら、futuretools.ioをチェックしてください。
ここでは、私が出会った最もクールで最新のAIツールをまとめており、このビデオで話していないニュースは、最新のAIニュースと記事ページで共有しています。
こちらのビデオには収録されなかった、いくつかの小さなAIニュースがあります。
それをチェックしてください。
また、私は無料のAIニュースレターも持っています。そこでは、私が見つけた最もクールなツールや最も興味深いAIニュースをお送りします。
完全に無料です。
無料で登録すると、AI収入データベースにアクセスできるようにメールをお送りします。これは、AIを使ってお金を稼ぐさまざまな興味深い方法が収録されています。
これらの方法を試してみて、自分が好きなものを見つけて、副業を始めることができます。
アクセス権が得られます。
やることは、futuretools.ioにアクセスして無料のニュースレターに参加するだけです。私がサポートします。
再度ご視聴いただきありがとうございます。
このようなビデオが好きで、AIニュース、AIチュートリアル、そして最もクールなAIツールについて最新情報を知りたい場合は。
このチャンネルに登録してください。
この動画を「いいね」してください。
もっと表示されるようにしますね。
本当に、本当に感謝しています。
ご視聴ありがとうございます。
この動画のスポンサーであるNVIDIAに感謝します。
皆さん、本当に感謝しています。
次の動画でお会いしましょう。
さようなら。