今週は、GoogleがラスベガスでGoogle Cloud Nextイベントを開催し、AIに関連する多くの新しい発表がありました。特に注目すべきは、新しい大規模言語モデル「Gemini 1.5」が180以上の国で利用可能になったことです。このモデルは、1,000,000トークンのコンテキストウィンドウを持ち、非常に高い処理能力を誇ります。また、OpenAIも「GPT-4 Turbo」を発表しましたが、Googleの発表に比べて影が薄くなっています。さらに、Stability AIからは新しい大規模言語モデルがリリースされ、オープンソースとしての地位を固めつつあります。
公開日:2024年4月13日
※動画を再生してから読むのがオススメです。
昨年の春と同様に、AIのニュースは本当に盛り上がっています。
今週はたくさんの発表がありました。
最終的には、ウォルマートが新しいAIチャットボットを導入したとか、誰も本当に興味を持っていないと思われるものを、あなたが重要だと思うものを絞り込む必要があります。
私は、あなたが楽しんでくれると思う重要な、興味深い、または単に楽しい情報を紹介していきます。
さあ、始めましょう。
今週、GoogleはラスベガスでGoogle Cloud Nextイベントを開催し、多くの新しい発表を行いました。そのうちの多くはAIに関連していたり、企業やAIモデルを構築している開発者にとってより関連性のある発表でした。
あなたも楽しんでくれると思う、かなり興味深く楽しい発表がいくつかありました。
このビデオの中で、それらをちりばめていきます。
今週の本当の話題は、新しい大規模言語モデルに関するニュースです。それらはすでに利用可能であるか、近日利用可能になる予定です。
今週のGoogleのイベント中に、彼らはGemini 1.5が180以上の国で利用可能であり、ネイティブオーディオ理解、システム命令、ジェイソンモードなどを備えていることを発表しました。
Gemini 1.5について以前話し合いましたが、ほとんどの人が今までそれにアクセスできていませんでした。
もちろん、Geminiについて人々が最も感銘を受ける最大の要因は、100万トークンのコンテキストウィンドウを持っているという事実です。
一つのトークンは、単語の約75%に相当します。
100万のトークンということは、モデルに提供できる入力と、返される出力の間に、合計75万の単語が使えるということです。
Gemini 1.5は、APIを介して利用可能です。
もしあなたが開発者で、このモデルを使って開発したいと思っているなら、今それが利用可能です。
ここでやることがたくさんある中で、私の友人ビルは、実際にGemini 1.5を使っている人の中で、最も良い例の一つを持っているかもしれません。
彼はここで、1時間のビデオインタビューの音声ファイルを追加しただけで、今それがYouTube用にパッケージ化するのを手伝ってくれています、と言っている例を示しています。
彼のスクリーンショットを見ると、実際にMP3ファイルをアップロードし、そのインタビューのためにこの音声録音を分析するように指示したことがわかります。
それから、要点を把握し、Daryl EvesやトップのYouTubeクリエイターの原則に基づいて、クリック率の高いYouTubeタイトルを10個考えるように頼みました。各タイトルを50文字以下に保つこと。
この音声ファイルから、それは要点を把握しました。
彼はまた、2つのサムネイルを提供し、このYouTubeビデオに最適なサムネイルはどちらかと尋ねました。
それは2つのサムネイルを分析し、どちらのサムネイルを使用するかフィードバックを提供しました。
そして、サムネイルを選んだ後、10のタイトルを提案して、かなりまともなタイトルを提供しました。
それはすべてかなりクールです。
私たちは今、Claudeと一緒にそれをやることができます。
違いは、彼がオーディオファイルをアップロードし、Claudeと一緒にそれを行ったことです。
実際、テキストの転写を取得してアップロードする必要があり、おそらく同じ結果が得られるでしょう。私が最も感銘を受けたのは、それにタイムスタンプを生成するように頼んだときで、実際にそれらのタイムスタンプを推奨し、各タイムスタンプの説明を示していることがわかります。
そして、それが生成したタイムスタンプの短いバージョンもあります。
これは私にとって本当に印象的です。私はClaudeを使用しようとしてきましたし、このビデオを見ている間にこれらのビデオのタイムスタンプを生成するためにチャットJPTを使用しようとしてきましたが、それはさまざまなセクションを正しく取得します。
そして、ビデオで何について話しているかを知っています。
それは単にすべてのタイミングを誤って取得し、正確なタイムスタンプを実際の章に提供するのに苦労しています。
このビルが共有した例は、私の意見では本当に本当に役立つと思いますが、Googleが発表するたびにOpenAIが自分たちの発表を行ってきた過去のシナリオのほとんどで、それを上回るアナウンスメントをしています。
OpenAIの発表は本当にGoogleの発表を圧倒しましたが、今回は、大幅に改良されたGPT for turboモデルがAPI内で利用可能になり、ChatGPT内で展開されているという曖昧な発表を受けました。
それ以上の詳細はありませんが、ここでOpenAIのドキュメントを見てみると、最新のモデルであるGPTフォー・ターボがここにあり、これはその4月9日版です。
ビジョンリクエストは、今やジェイソンモードと関数呼び出しを使用できます。
私たちがこれまでに取り組んできた同じ128,000トークンを持ち、2023年12月までに更新されています。これは以前のモデルも更新された時期です。
この新しいモデルは、コーディングにおいてははるかに優れており、数学においてもはるかに優れているとされています。
そしてしばらくの間、Claude 3Opusが最高のモデルであり、最高のモデルでしたが、ここでのチャットボットアリーナによると、最新バージョンのGPTフォー・ターボ、4月9日版が再びClaude 3Opusを上回り、このシステムを評価する人々によって最も強力で最もパワフルなモデルとして選ばれました。
ここでは、GeminiプロがClaudeやGPTフォー・ターボよりも下位に表示されていますが、私は100%確信していませんが、これが最新の1.5モデルを考慮に入れていないとは思いません。
新しい大規模言語モデルの世界で得た唯一のニュースではありません。
オープンソースの世界も熱を帯びています。
実際、Stability AIは12億パラメータのモデルである安定した大規模言語モデル2をリリースしました。
そして、ほとんどのベンチマークによると、それは8つのX7Bモデルの混合に劣るだけです。
そして、彼らはそれをオープンソース製品のように見せかけていますが、商用利用だけでなく非商用利用も可能だと言っています。
しかし、もしStability AIのメンバーシップを持っている場合、商用利用をしたい場合は支払わなければならず、それは私にとってあまりオープンソースとは感じられません。
さて、Mrはビールを持って待っていて、新しいLarge Language Modelを専門家のミックス構造を使用してリリースしましたが、それを興味深い方法でリリースしました。
実際、このモデルの重みをダウンロードするために、ほとんど文脈がないままXに直接トレントリンクとしてリリースしました。
トレントダウンローダーのようなものが必要です。
そして、このURLをアドレスバーに貼り付けると、トレントダウンローダー内でダウンロードが開始されます。
ただし、281ギガバイトのファイルであることに注意してください。
このMistralの新しいモデルについての情報はあまり持っていません。
ただし、ランダウンニュースレターでは、今週少し詳細を教えてくれました。
ランダウンのRowanによると、新しいモデルはミックスロール8×22Bです。つまり、以前のモデルは8×7Bでした。したがって、ルーターは迅速な回答を得るために8つの別々のモデルを呼び出していました。
そして、それが呼び出していた各モデルは、それぞれ70億パラメータのモデルでした。
この新しいモデルには8人の専門家がいますが、各専門家は70億パラメータのモデルではなく、今や220億パラメータのモデルです。
それは単により多くのデータでトレーニングされました。
この分解によると、その新しいモデルには65,000トークンのコンテキストウィンドウと合計1760億のパラメータが備わっています。
私はまだこのモデルを使ったことがありません。
私自身、Matthew Bermanのチャンネルのようなチャンネルは、これらの大規模言語モデルをテストするのに本当に非常に良い仕事をしています。
私は、このモデルがテストがさらに行われると、おそらく最も強力なオープンソースモデルになるだろうと感じていますが、Googleからもさらに多くの大規模言語モデルのニュースがあり、GoogleはクローズドソースモデルであるGemini 1.5をリリースしましたが、Googleのオープンソース大規模言語モデルであるGemmaの新しいバージョンもリリースされました。
これら2つの新しいモデルは、コーディングに適したモデルであるコードGemmaと、より効率的な研究目的のために設計されたリカレントGemmaです。
より効率的な研究目的のために設計されています。
このビデオで作成したすべての記事やリソースは、以下の説明欄で共有します。
これらのGemmaモデルが他のモデルとのベンチマークでどのように比較されるかを詳しく知りたい場合は、以下のリンクをチェックしてください。
しかし、全体的にGemmaは他のオープンソースのコーディング専用大規模言語モデルとほぼ同等であるようです。
そして、大規模言語モデルの最新情報では、今週MetaがLLaMA threeをリリースする準備が整っていることもわかりました。
LLaMA threeは、GPT-4とほぼ同等の性能が期待されていますが、誰でも使用して微調整や構築を行うことができるオープンソースで一般に利用可能になります。
LLaMA threeでは、複数の異なるバージョンのモデルをリリースする予定だと言っていました。
それは、ClaudeがHaiku、Sonnet、Opusで行ったことに似ています。
異なるモデルがあり、さまざまな理由に合わせて微調整されているようです。
これが私の考え方でもあります。
テッククランチによると、彼らはこれが来月の内に出ると発表しました。できればもっと早く出るといいですね。
本当に楽しみです。オープンソースとクローズドソースの両方が限界を押し広げ続けることを心から応援しています。
そして、両方が私たち消費者のためにますます良いものを作り出しています。
このチャンネルを見ている多くの人が、中小企業を持っており、AIを使ってマーケティングを改善しようとしています。
だから、このビデオでは、HubSpotと提携して、AIがスタートアップのGo-to-market戦略を完全に再定義している無料レポートを紹介します。
このレポートをダウンロードできるリンクを説明欄に貼り付けます。
これは、AIをスタートアップ戦略の一部として使う中小企業にとって必読です。
スタートアップが製品を市場に出すために使用しているさまざまな戦略について学ぶことができます。
また、最も人気のあるAIツールやスケーリングのためのベストプラクティスについても学ぶことができます。
And if you know me, I love me some AI tools.
無料レポートでは、AIがスタートアップの拡張性を推進し、投資家の注目を集めている方法、さらにはgo-to-market戦略内でのAIの未来についてもカバーしています。
もちろん、素晴らしいツールをキュレーションしてビジネスを展開している私としては、HubSpotがお勧めするgo-to-market戦略のツールやベストプラクティスに関するセクションがお気に入りです。
この無料レポートは、このビデオのスポンサーであるHubSpotが提供しています。
再度、このビデオのスポンサーであるHubSpotに感謝します。
そして、リンクは説明欄の一番上にあるはずなので、簡単に見つけることができます。
もし今週の主要な話題が今週登場した大規模言語モデル全般であるならば、そのBストーリーとして、これらの大規模言語モデルを構築しているすべての企業がNVIDIAのGPUへの依存を解消しようとしているようです。
現時点では、NVIDIAがAI向けにトレーニングされたGPU市場を独占していますが、Google、Intel、そしてMetaも、そのチップの世代を自社内に持ち込み、NVIDIAに多額の資金を提供するのを止めようとしています。
今週のGoogle Cloud Nextイベントで、GoogleはAxionプロセッサを発表しました。
Intelは、NVIDIAのH 100 GPUよりも40%優れた電力効率を持つとされるGaudi 3 AIチップを発表し、Metaもチップを発表しました。
この新しいチップはMTIAまたはメタトレーニングおよび推論アクセラレータと呼ばれています。
これはそのチップの第2世代です。
そして、Metaの記事によると、第1世代のチップよりも性能が3倍向上しています。
今週発表されたこれらのチップについて話しているすべての記事にリンクを貼りますが、こういった技術的な内容は少し難しいので、私には理解できません。
個人的にはこれらのチップがどのように動作するか理解していませんが、もし利用可能なものよりもこれらのチップがどうやって優れているのかを本当に理解したい方がいれば、説明欄の記事を読んでください。
しかし、今年の初めにNVIDIA GTCで、NVIDIAは次の世代であるNVIDIA Blackwellを発表しました。これは、既にH 100sよりも4倍強力だと言われています。
現在、AIモデルのトレーニングの業界標準となっているチップです。
これらの企業がNVIDIAへの依存を解消するために独自のチップを製造している一方で、NVIDIAは最新世代のチップで圧倒的に先行しており、現在生産している計算能力に他の企業が追いつくのは非常に困難です。
Googleの次のイベント中に、GoogleはImogen twoを発表しました。
これは、GoogleのOpenAIのDALL·EやAdobeのFireflyに対する回答のようなものです。
それは彼ら独自の内部AI画像生成モデルです。
ただし、ImogenがDALL·EやFireflyのようなツールと異なる点は、実際にアニメーションを生成できることです。
GIFファイルを生成することができます。どちらでも構いません。
これは、Pikaやrunwayのようなものと同様のアニメーションの例ですが、これらは非常に短い3秒のクリップで、短いループや小さなGIFファイルのように設計されているようです。
それをテキストからライブ画像と表現しています。
iPhoneを使用している場合、写真を撮るときに、写真の正しい場所を見つけるために、2秒間のビデオも保存されるライブフォト機能があります。
それは、その種の小さな短いクリップを生成するように設計されているようですが、それがこのイベントで行われた唯一のビデオ発表ではありませんでした。
彼らはまた、Googleビデオを公開しました。
これについてはあまり情報がありません。
彼らは少しティザー動画を公開しました。
Gemini for Google workspaceには、1分27秒のビデオを作成するAIがあり、PowerPointスタイルのビデオを作成するようです。
そして、ビデオのスタイルを選択することができ、ほとんどCanvaやPowerPoint、keynoteなどで得られるもののように見えます。
スタイルを選択し、スクリプトを与えるかAIにスクリプトを生成させることができ、その後、スライドプレゼンテーションスタイルのビデオが作成されます。これは、PowerPointやGoogleスライドのビデオのようです。
まだ利用可能ではありませんが、Google workspaceのGeminiには近日公開予定とのことです。
しかし、今週発表された新しいビデオジェネレーターに関する調査があります。
それはマジックタイムと呼ばれ、タイムラプスビデオを作成します。
これはタイムラプスに非常に特化しています。
通常のアニメーションビデオに与えられるプロンプトとは異なる点がいくつかあり、例えば、もやしは種から成長し成熟するというプロンプトが与えられると、このマジックタイムスタイルは、マインクラフト仮想環境内での建設のようなタイムラプスバージョンを生成します。
これは、ドローンが周囲を回転するようなビューを示しており、マジックタイムがこのタイムラプスを作成しているのがわかります。ここには他のいくつかの例もあります。
もう一度言いますが、私のようにビデオを作るのが好きな人にとっては素晴らしい特定のタイプのビデオを作成できるので、これをBロールなどに使用できます。
彼らのGitHubページ(以下にリンクされます)には、それができるアニメーションの種類の多くの例があります。
でも一番すごいのは、そのコードがGitHubで利用可能であることです。
何をしているかわかるなら、ローカルで実行したり、クラウド上で実行したりすることができますが、今すぐ遊ぶことができるHugging Faceのデモもあります。
しかし、今は、ここにある彼らのキャッシュされたモデルの一つを見てみましょう。
これをクリックすると、これはしっかりと閉じたつぼみから桜の花が移り変わるプロンプトでした。
再生すると、それがどのように見えるかがわかります。
そして、ビデオについて話していますが、先週、YouTubeのCEOであるNeil Mohanが、OpenAIが彼らのビデオでトレーニングを行った場合、それは彼らのポリシー、利用規約の明確な違反になると述べたことを覚えていますか。
しかし、ニューヨークタイムズの報告によると、OpenAIは実際にGPT4をトレーニングするためにYouTubeの動画を100万時間以上転記しました。
確認はほとんどありませんでした。
記事を読むと、それはほとんど噂話であり、GoogleはYouTubeのrobots.txtファイルを調べ、OpenAIがデータをスクレイピングしていた可能性があることを確認しましたが、実際の確認はありませんでした。
AI企業に実際にトレーニングされたモデルを公開するよう義務付ける法律がすぐにでもできるかもしれません。
火曜日に議会に提出された新しい法案は、人工知能企業に、彼らの生成AIモデルを作成するために使用する著作権物資料を公開することを義務付けることを意図しています。
この法案は、実際にAIモデルをリリースする少なくとも30日前に、企業が使用した著作権物資料について報告書を提出することを義務付けることになります。
このようなものが通過するかどうかはわかりませんが、世界最大の企業であるGoogle、Microsoft、Mettaなどが実際にトレーニングしたデータを公開したくない可能性があることを考えると、彼らの力を考えると、このような法案が通過しないようにするために裏でロビー活動が行われているかもしれませんが、ここでは推測に過ぎません。
一方、Adobeはまったく異なるアプローチを取っています。
彼らは、自分たちの大規模言語モデルのトレーニングに使用するために、クリエイターからデータを購入することを実際に考えています。
Adobeは、Soraの自社版を作成したいと考えており、そのためには大量のビデオトレーニングデータが必要です。
そのビデオトレーニングデータを入手するために、Adobeは、クリエイターからビデオコンテンツを購入する際に、1分あたり3ドルから7ドルを支払うことを提供しています。
Adobeは、自転車に乗っている人や通りを歩いている人など、通常のストックビデオで見るような日常のものを探しています。
もし外に出て世界中でストックビデオ映像を撮影するのが好きなら、それをGoogleに提出して数ドルを支払ってもらうことで、追加収入を得ることができるかもしれません。
もし私たちがちょうど見たような法案が可決されると、これはおそらくこれらの大規模言語モデルが訓練される未来の方法だと思います。
メッタは今週、AIによって生成された写真を識別するためのより強力な手段を講じると発表しました。
基本的に、人々がFacebookやInstagram、スレッドなどに写真をアップロードするとき、メッタは一般的にAI写真に存在するものを探し、その写真や画像がAIで作成されたものかどうかを特定するために独自のAI検出器を使用する予定です。
以前、メッタは自社のemu AI画像生成器で作成された写真にラベルを付けることができましたし、アップローダーが明示的にAIとしてマークしたAI写真も特定することができました。
しかし、今では実際にAIを使用してAIを見つけようとしているようです。
今週のもう1つの大きなニュースはUdioです。
Udioは本当に素晴らしいAI音楽生成器です。
プロンプトを与え、スタイルを提案し、自分で歌詞を書くか、AIに歌詞を生成させるか、歌詞を省略するかを決めることができます。
そして、その出力は本当に素晴らしいです。
私が聞いた多くの曲は、AIであることを誰かが教えてくれなければ、AIであることに気づかなかったでしょう。
それらは本当に良いです。
このビデオではUdioについてあまり詳しくは触れませんが、このビデオが公開される前の日に公開されたビデオは、非常にUdioに焦点を当てたAI音楽生成機についてでした。
本当にUdioについて学びたい場合は、こちらのビデオをチェックしてください。
しかし、次に進む前に、Udioについて本当に興味深いことの1つは、Will.i.MやCommonなどの他のミュージシャンによってサポートされているということです。
そして、Instagramの共同創設者兼CTOやGoogleのGeminiの責任者、そしてA16がそれを支援しているということです。
多額の資金がこのプラットフォームに投入されており、実際にミュージシャンたちがこのプラットフォームを支持しているようです。
ここで本当に興味深いことが起こっています。
そして、AI音楽の話題に乗っているので、Spotifyは新機能を展開しており、AIを使用してプレイリストを生成することができるようになりました。
単にプロンプトを与えるだけで、たとえばジムでの盛り上がる音楽が必要だと言うと、ジムでの盛り上がる音楽と思われる曲のプレイリストを作成してくれます。または、悲しい絵を描いているので悲しい音楽が必要だと言うと、悲しい音楽のリストを生成してくれます。
非常に驚くべきことや画期的なことは何もありませんが、とにかく音楽の話題に乗っているので共有しようと思いました。
AGIについて少し話しましょう。
イーロン・マスクは、来年以内にやってくると考えています。
イーロン・マスクは、Xスペースでのインタビューで、人工知能が来年か2026年までに最も賢い人間よりも賢くなるだろうと述べました。
彼は、来年半ばまでに、本質的にAGIを持っていると信じています。
AIの父の一人であり、Mettaの最高AI科学者であるヤン・ルカンは、違う考えを持っています。
彼は、大規模言語モデルが実際には人間レベルの知能に達することは決してないと信じています。
彼の記事では、AIが人間レベルの知能に達するとは信じていないとは実際には言っていません。
彼は、現在AIに使用している標準である大規模言語モデルが人間レベルの知能に達することはないとは信じていません。
2月に、MettaがV JEPAに取り組んでいることについて話しました。
これは、Mettaの自己監督学習のための新しいアーキテクチャです。
これは、ヤン・ルカンが実際に人間レベルの知能に達すると信じている技術です。
今週、多くの人が待ち望んでいたヒューマンピンが消費者の手に渡り始めました。
覚えていない場合は、シャツに付ける小さなピンデバイスです。
手に物を投影できる小さなプロジェクターが付いています。
カメラもあり、マイクもあり、音声コマンドを聞くことができ、スマートフォンの代わりとして設計されています。
そして、これまでのところ、レビューはあまり好意的ではありませんでした。
ここで簡単にまとめます。
現時点では、ヒューマンピンは非常に不利な提案です。
いいえ、私は受け取った形態のAIピンをお勧めできません。
既存のものよりもこれを選ぶ人や用途を想像することができません。
一番ピンが高い価値があるとは言えませんし、おそらく今後もそうでしょう。
絶対に買ってはいけません。自分の携帯電話を置き換えるつもりで。
ヒューマンピンについて最も多かった苦情は、実際にはスマートフォンよりも何も良いことをしていないということでした。
メニューなどを操作するために手を上げることについて、実際に手にはかなり疲れるという人が苦情を言いました。
明るい光の中では、投影がほとんど見えないため、使いにくいと言われました。
ジェスチャーが混乱し、複雑だという苦情もありました。
プライバシーがありません。
実際にそれを促すためには、プロンプトを声に出さなければなりません。
公共の場では、胸に小さなコンピューターと話すのは気まずいと感じます。
しかし、皆が一番文句を言ったのは、700ドルの製品で月額24ドルの料金がかかるということでした。
お支払いいただく月額24ドルの料金をキャンセルすると、その製品は動作を停止します。
それはただの置物になります。
人道的なAIピンについて話したすべての人が、その技術は本当にクールだけどまだ実用的でも使いやすいとは思わないと言っていました。
そして、それはまだ何かしらの形で、人々が本当に欲しいと思うものになるかもしれません。
ただ、まだ全然そこには達していません。
最後に、私はこれがAIを使ってたくさんのお金を稼いでいる人についての楽しい記事だと思いました。
カードゲームの開発者が、AIアーティストに9万ドル支払ってカードアートを生成させたのは、誰も彼が提供している品質に匹敵することができなかったからです。
彼らが自分たちをAIアーティストと言っていることには少し問題があります。私は、より適切な用語はAIを支援するアーティストだと思います。
実際、AIアーティストというものがあるのかどうかはわかりません。ボタンを押してAIに出力させるだけなら、あまりアーティストとは思えません。
ただし、私はAIを支援したアートを本当に評価しています。ここにあるこれらのカードは、誰かがAIを使ってすべてのカードの画像を生成しましたが、その後、Photoshopや他の画像編集ツールを使って色やキャラクターの一貫性、すべてのスタイルが一致するように手直しをしました。
AIによる余分な指や奇妙なものはなく、実際に手作業で修正する必要がありました。
AIが画像の初期の下書きを生成しましたが、その後アーティストが実際にそれをカードデザイナーが望むものに変えました。
AIは彼らが大量の画像を作成するのを助けましたが、アーティストはそれらのすべての画像に作業をしなければなりませんでした。
それはもっとAIがアシストしたアートであり、本当にAIが生成したアートではありません。
わかりません。
それは少し熱弁です。
今、それから降ります。
誰かがAIアートジェネレーターを使用して初期のコンセプトを作成しているのが本当にかっこいいと思いました。
それから彼らはPhotoshopでそれをきれいにしました。
彼らはこれを大規模に行い、雇った会社から9万ドルを稼ぎました。
最後に、最後のお知らせですが、これは少し自己中心的なお知らせですが、私たちのポッドキャスト、The Next Waveが正式に開始されました。
私たちがPerplexityのイベントで行った最初のエピソードを見つけることができます。
YouTube、Spotify、Apple Podcastsなど、どこでもポッドキャストを聴くことができます。
編集者たちが素晴らしい仕事をして、クールなグラフィックやオーバーレイを追加してくれたYouTubeバージョンを強くお勧めします。
本当に楽しいビデオです。
運転中であったり、ワークアウト中であったり、何をしていてもオーディオポッドキャストを聴くのが好きな場合は、純粋なオーディオ形式でも利用できます。
今日のビデオのスポンサーであるHubSpotは、このポッドキャストのプロデューサーでもあり、本当にクールなコンペを行っています。
彼らは、ポッドキャストを購読したり、いいねをしたり、レビューをしたりすることで、Apple Vision Proやさまざまなクールなアイテムをプレゼントしています。
まだコンペの詳細は全て把握していません。
ポッドキャストを購読し、気に入っていただけたらいいねをして、レビューを残していただくことをお勧めします。そして、HubSpotの素晴らしい人々があなたをサポートしてくれるかもしれません。
お話しすることはありませんが、少し偏っているかもしれませんが、私はそのポッドキャストも本当に良いと思います。
このような動画では、1つのトピックあたりの時間が非常に短いです。
次世代のポッドキャストのようなものでは、私と共同ホストのネイサン・ランズと一緒に、より深く掘り下げたり、長い形式の会話をしたり、この技術に関連する倫理や影響、そして長期的なタイムラインについてもっと話すことができます。
本当に私たちには、より長く、より深く進むためのプラットフォームを提供してくれますし、私たちが話しているこの狂った、速いAIの世界をより良く理解するのに役立つ素晴らしいゲストを迎えることができます。
それが私のポッドキャストのプレゼンテーションです。
ぜひチェックしてみてください。
もう一度確認しますが、説明欄にリンクされています。
それはThe Next Waveポッドキャストと呼ばれています。
本当に楽しんでいただけると思いますし、それが今日の私の全てです。
まだの方は、futuretools.ioをチェックしてみてください。そこでは私が見つけた最新で最も興味深いAIツールやニュースをまとめています。
あと、私は無料のニュースレターも持っているんですが、そこでは私が見つけた最もクールなツールや最も重要なAIニュースをお知らせします。
もしサインアップしていただければ、AI収入データベースに無料アクセスできます。これは、これらのさまざまなAIツールを使ってお金を稼ぐ興味深い方法が詰まったデータベースです。
私はすぐに、AdobeのAIトレーニング用のビデオ録画をリストに追加しなければならないと思いますが、ぜひチェックしてみてください。
それはfuturetools.ioにあります。
もし、このような動画が好きで、ニュースや最新のチュートリアル、最新のツールなどについて最新情報を知りたい場合は、この動画にいいねをして、このチャンネルに登録してください。そうすれば、YouTubeのフィードに表示され続けるようにします。
ご視聴いただき、ありがとうございます。
この動画のスポンサーであるHubSpotに再度感謝します。
皆さん、最高です。
YouTubeでオタクっぽくなり、実際に楽しんで見てくれてありがとう。
理解できないけど、楽しんでいます。
楽しんでいるといいですね。
またやりましょう。
次回もお会いしましょう。
さようなら。