この動画では、AIの最新ニュースが紹介されています。GPT-4の速度が向上し、DALL·E 3が正式にリリースされました。OpenAIは新しいコアバリューを設定し、AIプログラム「Arus」の開発を中止。Anthropicは95カ国でCladプラットフォームを展開し、著作権問題も発生しています。中国のBytedanceは新しいAI「Ernie」を開発、Nvidiaは中国へのAIチップ輸出を制限されました。その他、AI関連の進化や課題、新機能についても触れられています。
公開日:2023年10月21日
※動画を再生してから読むのがオススメです。
今週のAIの世界では、おそらくあなたが見逃したであろうものをすべて分解してみよう。
先週は大きなAIの発表が少なかったですが、それでも注目すべきことがいくつかありましたので、それについて話したいと思います。
まずは、GPT-4が実際に高速化しているという事実だ。
以前の週には、ChatGPTが愚かになっていると人々が信じているようですが、それは今ではある程度否定されています。
しかし、間違いなく速くなっています。
このPortkeyという会社はそれを見守っています。
赤い線がGPT-4、青い線がGPT-3.5です。
GPT-4はGPT-3.5とほぼ同じ速度になりつつあります。
ほんのわずかなマージンが残っているだけだ。
今週、OpenAIはDALL-E 3がChatGPT PlusとEnterpriseで利用可能になったことも発表しました。
さて、ほとんどの人は先週実際にアクセスできるようになりましたが、OpenAI はそれを正式に発表しました。
これは、かなり多くの人が利用できるようになったということだと思います。
DALL-E 3が使えるようになったことは、先週のニュースビデオにもありましたが。
DALL-E 3を使いたい場合は、ChatGPTアカウントにログインし、ChatGPT Plusに加入していることを確認し、GPT-4ボタンにカーソルを合わせ、DALL-E 3を選択してください。
そして、タコスを追いかけるスペース・ウルフのような素晴らしいアートを作ってください。
今週、ローワン・チョンは、OpenAIがコアバリューを静かに変更したことも指摘した。
この変更では、AGIの構築に焦点を当てるように更新された。
では、変更前のコアバリューはこちらで、変更後はこちらです。
そしてお気づきのように、AGIフォーカスという項目があります。
私たちは、人類の未来に大きなプラスの影響を与える、安全で有益なAGIの構築に取り組んでいます。
そのために役立たないものは、すべて対象外です。
つまり、彼らはOpenAIの本当の目的が何であるかを明確にしたのだ。
さて、AGIが実際に何を意味するかについては、多くの人が異なる定義を持っている。
しかし、ローワンは、サム・アルマンがAGIの定義を語ったビデオクリップも共有している。
AGIは基本的に、あなたが同僚として雇うことができる人間の中央値に相当します。
そして、彼らは言うことができます、「リモートで働く同僚がコンピュータの後ろでやっていることなら何でもやってください」ということで、医者になる方法を学ぶこと、非常に有能なコーダーになる方法を学ぶことなどが含まれます。
一般的な人間が得意になることができることはたくさんありますが、AGIのスキルの1つは特定のマイルストーンではなく、物事を理解するためのメタスキルであると思います。
AGIのスキルの1つは、特定のマイルストーンではなく、物事を理解することを学ぶというメタスキルだと思います。
また、今週のOpenAIのニュースでは、OpenAIは、彼らが取り組んでいたAIプログラムの1つ、コードネームarusというAIモデルの閉鎖を決定した。
その目的は、ChatGPTのようなAIアプリケーションをより安価に動かすことだった。
しかし、彼らは今週、効率に関する期待に応えるのに苦労したため、このプロジェクトを中止することを決定したと発表した。
このプロジェクトについて他に知られていることはあまりないが、いずれにせよ、我々がこのプロジェクトを目にすることはなさそうだ。
今週、AnthropicはCLADプラットフォームのメジャーアップデートを行い、95カ国のユーザーが利用できるようになった。
私は個人的にCLADをChatGPTと同じくらい、いやそれ以上に使っています。
長いPDFやCSVファイル、トランスクリプトなどを要約するには、CLADはおそらく今最高のツールでしょう。
CLADはそれに比べてChatGPTよりも優れています。なぜなら、より大きなコンテキストウィンドウを持っているからです。
そして今回、さらに95カ国からアクセスできるようになる。
しかし、Anthropicにとって悪いニュースとして、ユニバーサルミュージックが歌詞を配信しているとして訴訟を起こしている。
つまり、CLADでケイティ・ペリーの「Roar」の歌詞を教えてと入力すると、実際に歌詞をすべて書き出してくれるのだ。
歌詞は著作権で保護されているため、ユニバーサルは、Anthropicが著作権で保護された素材を許可なく配布しているだけでなく、言語モデルを訓練するためにそれらを使用したと述べている。
彼らは、Anthropicの著作権侵害はイノベーションではない、と言い続けている。
平たく言えば、窃盗だ。
私が面白いと思うのは、Googleでケイティ・ペリーのRoarの歌詞を検索すると、Googleは歌詞を無料で表示してくれることだ。
私はそれを20年以上もやってきました。
しかし、ChatGPTに同じ質問をすると、「申し訳ありませんが、著作権のある曲の歌詞は提供できません。
代わりに要約が必要ですか?
個人的には、著作権法の意味を完全に見直す必要があると思います。ますます難しくなっているからです。
著作権が認められるものと認められないものの境界線が曖昧になってきている。
私たちは画像でこれを見ていますし、歌詞でこれを見ていますし、人々の声でこれを見ています。
近い将来、私たちは映像の生成でますますこのような状況を目の当たりにすることになるでしょう。
そして、AIがますます盛んになり、より多くの人々がこのようなシンプルなツールを使って何かを再現するようになるにつれて、これらの大企業のいくつかは、このようなことを行っているように思われる。
今、私は、人々が著作物を使用することが必ずしも正しいとは言っていない。
ただ、著作権の仕組みは考え直す必要があると思う。
私個人はその解決策を持っていません。
あると主張しているわけでもない。
ただ、私たちが移行しつつあるこのポストAIの世界では、著作権を再考する必要があると思います。
また今週、Piチャットボットを開発したInflection AIは、Piがウェブを検索できるようになったと発表した。
そのため、Piとチャットした内容は、今日から最新のものになります。
だから、pi.a/talkに行けば、超最近の質問をすることができる。
例えば、「ローガン・ポールとディラン・ダニスのボクシングの試合はどっちが勝った?
本当に、本当にくだらないバイラルボクシングの試合。
ちょっと奇妙な試合だったが、ローガン・ポールが勝った。
ディラン・ダニスは打撃を拒否し、代わりにポールと組み合おうとしたため、最終ラウンドで失格となった。
かなり混乱した試合で、ある時点で大乱闘が勃発しました。
結局、ローガン・ポールが勝利を収めた。
試合を見ましたか、それとも結果について興味があるだけですか?
その試合が10月14日に行われたことを見れば、それはかなり最新の情報だ。
そうだね。
実は見ていないんだ。
実際に私は今ちょうどそれの結果をPiに尋ねることでそれを知りました。
今週スタンフォード大学は、財団モデルの透明性指数と呼ばれるレポートを発表した。
10種類のチャットボットを比較して、どれが最も透明性が高いかを調べた。
データはどのように訓練されたのか、それに費やされた労力、必要な計算能力、リスク、配信フィードバックなど、100の異なる指標で採点された。
そして基本的に、MetaとそのLAMA2が最も透明性が高く、次いでHugging Face、OpenAI、Stabilityと続き、アマゾンがTitanモデルで最も透明性が低いことがわかった。
開発者は競合他社のベストプラクティスを採用することで透明性を大幅に向上させることができ、オープン・ファウンデーション・モデルの開発者がその道をリードしていると結論づけている。
OpenAIがStability AIに勝ったのは興味深いことです。なぜなら、Stability AIはモデルのほとんどをオープンにしており、人々が遊べるようになっているからです。
そして最後に、今週の他の大規模言語モデルのニュースとして、中国のBytedance社は、同社のErnie AIチャットボットはGPT-4より劣っていないと述べている。
彼らは今週初めに基調講演を行い、理解、生成、推論、記憶の4つの異なる能力の改善を実証しました。
基本的にはGPT-4と同等だと主張している。
さて、Ernie-4はまだ公開されていないが、仮に公開されていたとしても、これまでのところ、これらの様々なErnieボットは中国語でしか利用できないので、いずれにせよ私は使えないだろう。
中国の話題になったので、ニュースです。
NVIDIAが高性能AIチップを中国に送れないようにする新たな規制が米国で可決された。
H100チップは強力すぎるという理由で、すでに送付が阻止されている。
そこでNVIDIAは、より低スペックのH800チップを製造し、中国に輸出していた。
しかし、新たな規制によってその抜け道が塞がれ、NVIDIAはもはやH100、H800、そしてA800チップさえも中国に送ることができなくなった。
どうやら、すべては中国とのAI競争に勝つための努力のようだ。
さて、今日のビデオのスポンサーであるWirestockから、AIアートについて話を始めよう。
Wirestockをご存じない方のために説明すると、Wirestockは、あなたが作成したストックフォト、あるいはAIが作成した画像をアップロードできるプラットフォームで、あなたに代わってすべてのストックイメージプラットフォームに画像を提供してくれます。
また、画像にタイトルをつけたり、タグを追加したり、画像の説明文を作成したり、ストックフォトサイトにAIが作成した画像であることを通知したりすることもできます。
Imago、Adobe Stock、123 RF、Dreamstime、Freepikなどのサイトでは、AIが生成した画像を使用することができます。
そのため、AI画像を生成してWirestockに送信すると、Wirestockがすべてのメタデータを作成し、これらのサイトに送信してくれます。
とても速いです。
Wirestockには独自のDiscordボットもあるので、Midjourneyのようなツールに慣れ親しんでいる人なら、Wirestockでくつろぐことができるだろう。
Wirestockでは、カスタムイメージを作成したり、複数のイメージをミックスしたり、既存のイメージを再構築することもできます。
すでに持っている画像をアップロードして、それを再構築するように指示すれば、その画像と同じような画像をさらに作成してくれます。
Wirestockでは、カスタムコレクションを作成することもできます。
この画像を追加して、ピクセルコレクションと名付け、コレクションを作成し、このコレクションに直接画像を追加することができます。
これで、このコレクションに直接リンクすることができます。
このコレクションは、コレクション価格で購入することができます。
また、Wirestockのプレミアムメンバーであれば、収益の100%を受け取ることができます。
さらに、Wirestockが今Wirestockで好調な画像をいくつか送ってくれました。
どのような画像を作成すればいいのかお知りになりたい方は、こちらをご覧ください。
風景、トラクター、賑やかな通り、クールでシュールなサンゴ礁の画像、クールな背景画像、そして水浸しの地下室です。
これらの画像はうまくいきました。
Wirestockの詳細については、wirestock.ioをご覧ください。
クーポンコード「Matt20」を使えば、プレミアムメンバーシップが20%オフになります。
wirestock.ioでチェックしてみてください。
このビデオをスポンサーしてくれたWirestockに改めて感謝します。
それでは、今週のMidjourneyオフィスアワー・アップデートについて、アリ・ジュールズに話を聞いてみよう。
今週、Midjourneyに新しい機能が追加されました。
気に入った画像があったら、2番をアップスケールしてみましょう。
この画像を2倍または4倍にアップスケールするオプションが追加され、画質を損なうことなく、より大きな画像を得ることができるようになりました。
彼らはまた、新しいウェブサイトのフェーズ1が来週リリースされるとも言っていた。
これはまだウェブサイトから直接画像を生成できるプラットフォームにはなりませんが、ウェブサイトのフェーズ2が来月中にリリースされる予定で、ウェブサイトから直接画像を生成できるようになり、最終的にMidjourneyをDiscordから切り離すことができるようになるはずです。
今週はMidjourneyの他のニュースとして、MidjourneyはSizigi Studiosというゲーム会社と提携し、iOSとAndroidアプリでアニメスタイルの画像をアプリ内で直接生成できるNigi Journeyを発表した。
私自身はまだこのアプリを使っていないが、リアルな写真ではなく、Midjourneyのアート風の画像を生成する別の選択肢を与えてくれるようだ。
この1週間半の間に、ピーター・ウィデンによるこのYouTube動画が300万回近く再生され、大流行した。
この動画で彼は、ポケモンをプレイするAIを実際に訓練した方法を紹介している。
彼はAIキャラクターを複数同時に実行し、ポイントベースのシステムで強化学習を行いました。キャラクターがポケモンを集めたり、マップの新しい部分を発見したりすると、ポイントが獲得され、AIキャラクターはゲームの深い部分に入り込み、ますます多くのポケモンを集めるようになります。
私同様AIが好きなら、この33分のビデオを全部見ることを強くお薦めする。彼は、それがどのように機能するのか、その背後にある方法論、そこから得られた結果を正確に説明しており、さらにGitHubまで作成しているので、コードをダウンロードして、ポケモンエミュレーターを使って自分でこのポケモンのシミュレーションを実行することができる。
さて、数週間前に、スタック・オーバーフローが独自のAIを開発しているという話をした。
今週、AIコーディング・ブームが続く中、Stack Overflowが100人以上を解雇したと発表された。
これはスタッフの28%に相当する。
スタック・オーバーフローをご存じない方もいらっしゃるかもしれないが、基本的には、コーディングで問題にぶつかったときに助けを求めに行くサイトである。
Stack Overflowで質問をする。
そして、ウェブサイトの親切な人々がコードの質問に答えてくれる。
問題は、Stack Overflowを使う代わりに、多くの開発者がChatGPTやClaudのようなツールでコーディングのヘルプを得ていることだ。
また、GitHub CopilotやAmazonのCode Whispererのようなツールもあり、コード開発とトラブルシューティングを手助けしている。
Stack Overflowというサイトは、実際のトラフィック量に大きな打撃を受けている。
YouTubeは今週、特別な文化的瞬間をターゲットにすることができる新しいAIパワードの広告機能を導入すると発表しました。
基本的に、たとえばハロウィンに関連する製品がある場合、ハロウィンについて話しているどの動画でもこの製品を広告表示したいと言うことができ、YouTubeのAIがハロウィンに関連する動画を見つけて広告を表示しようとします。
つまり、特定のチャンネルやキーワードを特別にターゲットにするのではなく、AIを使って、もしかしたら無関係のチャンネルかもしれないが、たまたまあなたがターゲットにしようとしている特定のイベントについて話している動画を見つけるのだ。
また今週、Descriptは新しい大きなAI機能をいくつか発表した。
彼らのプラットフォームに新しいAI音声が追加されました。
私たちは、社内のAI音声ツールの新バージョンを導入します。
私たちは基本的に、ボロボロになった古いAIを修理に出し、エンジンを再構築し、音声合成や電光石火のオーソリゼーションなど、まったく新しい宇宙時代の機能を搭載しました。
古いオーバーダブは、あなたが行きたいところに行くことができましたが、私たちの新しいAIボイスでは、あなたにロケット船の鍵を渡します。
音声のトレーニングや確認に24時間待たされることもなく、品質も格段に向上しています。
一言も録音することなく、ナレーション全体を作成することも合法的に可能になりました。
AIの音声クローンといえば、ニューヨーク市長のエリック・アダムスは、AIを使用して、自分が話したいと思う言語でロボット電話をかけた。
彼はスペイン語で数千件、イディッシュ語で250件以上、北京語で160件以上、広東語で89件、ハイチ・クレオール語で23件の電話をかけた。
多くの人々がそれに満足していませんでした。ある人は「これは非常に非倫理的です、特に納税者の負担である」と言っています。
AIを使ってニューヨーカーに、彼が話していない言語を話すと信じ込ませるのは、オーウェル的だ」。
実際にアダムスは記者会見でこう発言している。『街でいつも呼び止められ、あなたが北京語を話すとは知らなかったと言われます。
彼はそうではない。
今週、メタは『脳活動から画像をリアルタイムで解読する方法』という研究を披露した。
この種のものは以前にもいくつか見たことがある。
これまでの例では、MRIを使い、巨大な機械に横たわり、画像を見ている間に脳をスキャンする必要があった。
メタ社のこの新しい方法は、MEG(脳磁図)と呼ばれるものを使用する。
これによって研究者たちは、MRIを使うような侵襲性を伴わずに、脳が見ているものをリアルタイムで見ることができる。
つまり、この研究では、人々に画像を見せ、その脳波を読み取って、彼らが何を見ているかを解釈したのである。
ここに左側の画像が実際にその人に表示されたものです。
右側の画像は、実際に脳波からデコードされたものです。
つまり、チーズを見せられたことがわかる。
これが脳が見たもの、あるいは解釈されたものです。
もちろん、これは完全な再現ではありません。
これはチーターのようなもので、サルのような奇妙なものを見ている。
しかし、これは本当に魅力的なことです。
AIが脳波を読み取り、脳が見ているものを解釈する手助けをするところまで来ているのです。
さらにいくつかの例を挙げよう。
サーファーの見た画像です。
これがスキャンで見たもの。
ここに馬がいます。
これが脳スキャンで見たもの。
飛行機。
飛行機。
つまり、すべてが元の画像に非常に近いです。
MetaはMeta Quest 3のようなヘッドウェアを売ろうとしている会社のひとつだが、Metaが脳波を読み取ろうとしていることについて、私はどう感じているのかわからない。
ウェアラブル・テクノロジーにこのテクノロジーを組み込んで、Metaが私たちの脳を読み取って広告を表示するようなことになるのだろうか?
そこまでは行かないだろう。
世界全体としては、おそらくそれに反対するでしょう。
しかし、Metaはそれを可能にする技術に近づいているように感じる。
さて、少しロボット工学の話をしよう。
今週、アマゾンはAIを搭載した新しいロボットがフルフィルメントにかかる時間を25%短縮すると発表した。私たちはすでにアマゾンで「今すぐ買う」を押すと、文字通り翌朝には商品が手元に届いている。
場合によっては、商品を注文して2時間後には玄関先に置かれていることもある。
アマゾンは新しいロボットでフルフィルメントにかかる時間を25%短縮すると言っている。
このロボットが実際にどのようなものなのか、フルフィルメントにかかる時間をどのように短縮するのか、私は詳しい情報を持っていない。
ただ、アマゾンのスピードはすでに速いのに、さらに速くしようとしているのは本当に魅力的だ。
注文をAmazonで行い、15分後にドローンが玄関先にそれを届けるようになるのは時間の問題です。
ドバイでは実際に、ドローンを搭載したAI搭載の自動運転パトロールカーが導入されている。
これは近隣をパトロールするために設計されている。
それらには360°カメラが付いており、顔認識技術も備えています。
また、ドローンも搭載されており、自律走行ロボットがドローンを発射して、運転ロボットが見えない場所を確認することもできる。
どうやら、これらは基本的に情報収集のために設計されているようだ。
そして、もし何か異常なものを見つけたら、それを警察に報告し、警察が来て対処できるようにする。
しかし、これは少し、まるで私たちのために街を自律的に巡回するロボット警察部隊に近づいた一歩のように感じます。
それをどう感じるかはまだわからない。
これは少し気味が悪いですね。
しかし、ロボットの話を続けよう。
今週、Figure One Dynamic Walking Robotのビデオが公開され、実際に歩くことができる人間の形をしたロボットが表示されています。
ここで前に進んでいるのが見えます。人間のようなもの、おそらく背中の悪い人間のようなものです。
彼らは、このロボットがこの種のものとしては初めてのものであり、AIロボット企業が汎用ヒューマノイドを世に送り出したものだと主張している。
今のところ、このロボットの目標は、望ましくない仕事を手伝うことだ。
将来的には、ヒューマノイドは、企業の労働力から、家庭での個人の支援、高齢者の介護、他の惑星での新世界の建設まで、さまざまな産業に革命をもたらすと信じています。
しかし、最初に応用されるのは、製造業、海運業、物流業、倉庫業、小売業など、労働力不足が最も深刻な業界でしょう。
今週、NVIDIAは、大規模な言語モデルを備えたEureka Extreme Robot Dexterityを発表した。
これは改良された強化学習の技術で、実際にはロボットが複雑なことを指で行うことができるようになる方法を見つけたものです。
この新しい強化テクニックを使った最初のテストの1つとして、テキスト・トゥ・ビデオは最近大流行している。
Gen2、PikaLabs、Moon Valley。
新しいAIテキスト・トゥ・ビデオ・モデルがいろいろ出てきている。
そして今日、私はMorph Studioというものを見つけた。
このモデルは、5秒から7秒のクリップを生成すると主張している。
それだけでなく、実際に高解像度で生成してくれる。
Discordにアクセスして、早速試してみよう。
slideと入力し、狼が雪の中を歩くというプロンプトを出す。
約3分かかりましたが、ここにそのビデオがあります。
本当に、本当に印象的ですね。
たった3秒しか生成されなかったが、フルスクリーンで見てみよう。
かなりまともな画質だ。
現時点では、Gen2やPabs、Moon Valleyにかなり似ているようだが、かなり印象的なクオリティだ。
ここにいる他の世代を見てみると、この天の川銀河のタイムラプスは本当にクールに見えます。
この幸せそうな女性は本当にいい感じだ。
空中を泳ぐ、青い魚です。
つまり、これらはかなり良い。
ただし、その魚が一時的に尾のような顔をしていたという事実以外は。
しかし、これは実際には7秒でしたので、時折長いビデオを生成することができます。
長いビデオを得るためには、おそらくこの追加のS7を与える必要があるようです。
しかし、今のところ、無料で使えるようだ。
morphstudio.comからDiscordに参加できる。
もうひとつ、こんなツールを見つけた。
このマスターピースXの会社は最近NVIDIAと提携し、テキストプロンプトから3Dアニメーションアセットを生成している。
今のところ、私はこれを試していません。
generate3Dをクリックします。
250クレジットでスタートし、生成に必要なクレジットは約50クレジットだ。
オブジェクト、動物、人間を生成することができる。
それでは動物を生成してみよう。
そして、推定時間は3Dモデルごとに2〜8分です。
次のステップをクリックして、形状の詳細を追加します。
オオカミを作成してみましょう。
次のステップでペイントを追加します。
ガイドラインが表示されます。
ハイパーリアルな4Kグレーと白。
詳細設定をクリックします。
ネガティブプロンプトのオプションが表示されます。
3Dモデルの生成をクリックします。
各モデルに2~8分かかると表示されます。
そして、ここに処理と表示されました。
オオカミのモデルができました。
約3分かかったことがわかります。
それではクリックしてみましょう。
私はそれが狼よりも猫のように見えると言いたいと思います。
でも悪くはない。
つまり、我々は長い長い道のりを歩んできたのだ。
コモンセンス・マシーンを使ったときは、生成にもっと時間がかかった。
面白いのは、いくつかの角度から見てみると、オオカミの鼻がここにあるのがわかるんだ。
正面から見ると、それは狼のように見えますが、完璧ではありません。
でも、向きを変えると、鼻が首か何かの上に乗っかっているように見える。
完全には完璧ではありませんが、興味深い猫のように見えます。
さて、このツールは、生成したものを何でもアニメートできるとも主張している。
ただし、アニメートオプションは人間モデルだけのようだ。
では、さっそく人間を作ってみよう。
海賊を作りましょう。
ここでは、4K、ArtStation、カートゥーンなどのキーワードを入力します。
アニメーションのオプションが表示されます。
ボーンのみで、他のツールでリギングすることもできますし、このツールでアニメーションさせることもできます。
ボーンとアニメーションをやってみましょう。
そして、アニメーションした人体モデルを生成して見てみましょう。
さて、これを生成するのに約6分かかりました。おそらくアニメーションのためです。
ちょっと覗いてみよう。
わかりました、パンチしている、と言ってもいいですね。
海賊というよりゾンビミュータントみたいだ。
でもまた、これと同じくらいひどい。
これを生成するのにかかる時間は、Common Sense Machinesのようなものと比べて、時間のほんの一部です。
これを6分で作成した。
CSMなら24時間はかかるだろうし、アニメーションにもならなかっただろう。
とてもクールで、遊んでいてとても楽しい。
プロンプトの出し方を理解し、プロンプトの出し方がうまくなれば、これよりもずっといいものを生成できるはずだ。
ここにあるいくつかの例を見てみると、例えばこの虎や、この人々や、この馬のように、他の人たちは私が得ているものよりもずっと良い世代のものを得ている。
だから、これは間違いなく有望なんだ。
ただ、適切なプロンプトの出し方を理解するのに十分な時間を費やしていないだけなんだ。
以上です。
これで今週のAI関連のニュースはすべて出揃った。
今週もまた、発表の面では少し低調な週だったが、それでも本当に、本当にクールなことがたくさん起こったし、私たちが遊ぶことのできる新しいツールやおもちゃがいくつかリリースされた。
だからいつも楽しいんだ。
このビデオを楽しんでいただけたなら、ぜひFuture Toolsをチェックしてください。ここでは、最新のAIニュースを毎日キュレーションし、私が出会った最もクールなAIツールすべてをホームページにアップしています。
毎週ニュースレターも発行しています。
無料のニュースレターに登録していただければ、最新のAIニュースや最もクールなAIツールを直接メールボックスにお送りします。
すべてfuturetools.soでご覧いただけます。
ぜひご覧ください。
また、このビデオを楽しんでいただき、最新のAIニュースやチュートリアルを常にチェックしたい方は、このビデオを「いいね!」して、このチャンネルに登録してください。
このようなビデオがあなたのYouTubeフィードにもっと表示されるようにします。
本当に本当にありがとう。
そして、このビデオをスポンサーしてくれたWirestockに改めて感謝します。
君たちも素晴らしい。
あなたが何か新しいことを学んだり、クールな新しいAI技術やニュースを発見したりしたことを願っています。
このビデオを作り、皆さんと共有するのは、いつもとても楽しいことです。
本当にありがとう。
本当にありがとう。
また次のビデオでお会いしましょう。
バイバイ。