OpenAIは新モデルGPT-4oを発表しました。GPT-4oはマルチモーダルで、音声、テキスト、画像、動画など様々な形式のデータを処理できます。また、無料版のChatGPTユーザーにも提供され、利用しやすくなりました。一方、OpenAIの共同創設者イリヤ・サツキヴァーが退社を発表し、AIの倫理や安全性を担当するチームのメンバーも辞職しました。Googleは年次イベント「Google I/O」で、100以上のAI関連の発表を行いました。新言語モデルGemini 1.5やプロジェクトAstraなど、革新的な技術が披露されました。Gemini 1.5は高速性と高精度を両立し、プロジェクトAstraではスマートフォンのカメラを使ってリアルタイムで物体を認識・分析できます。また、Gmail、Google Meet、Google検索などの主要サービスにもAIが導入され、利便性が大幅に向上しました。その他にも、Anthropic社がInstagramの共同創設者を採用し、AI対話ツール「Claude」の開発を加速させています。Hume.aiは感情を認識できるインタラクティブなポッドキャストアプリ「Chatter」をリリースしました。MicrosoftのBuildイベントやAppleのWWDCなど、今後も重要なAIイベントが続く見通しです。
公開日:2024年5月18日
※動画を再生してから読むのがオススメです。
今週は、AIのニュースが次々と押し寄せる狂気の週の始まりとなりました。
今週は、たくさんのニュースがありました。
ここでよく見てみると、ほとんどはGoogleかOpenAIから出てきたもので、OpenAIは月曜日に春のイベントを開催し、Googleは火曜日に年次のIOイベントを開催しました。
この週は、巨大な発表祭としか言いようがありません。
この週は、月曜日にOpenAIの春のアップデートで始まりました。
実際、その春のアップデートについての詳細な解説動画をチャンネルで公開しました。
それを見つけることができます。
それはChatGPTの素晴らしい新しいモデル、人間らしく感じる、そして無料というタイトルです。
ただし、このチャンネルの週末のビデオだけを見る人も多いことを知っています。そこで、すべてのAIニュースを完全に把握するためにこの1本のビデオを見る人もいます。
簡単な要約をお伝えします。
さらに、その基調講演で話されなかった他のいくつかのことも共有します。それらはかなりクールです。
そのイベントは、GPT-4の発表で幕を開けました。
Oはオムニの略で、音声やビデオ、画像など、あらゆるものを扱えるマルチモーダルモデルです。
先週、limsis.orgのウェブサイトにあった謎のGPT twoチャットボットについて話していたとき、私たちは皆、それが新しいOpenAIモデルであると推測していました。
実際、私たちは正しかったのです。
これが、今新しいGPT-4である、GPT-4oというものです。
このモデルははるかに高速です。
マルチモーダルです。
音声、テキスト、画像、ビデオを理解し、以前のGPT-4モデルよりもはるかに優れたモデルのように思えます。
しかし、このイベントでの大きな発表の1つは、すべての無料ChatGPTユーザーに利用可能になるということでした。
ChatGPTの有料プランを持っていなくても、GPTストア、ビジョンモデル、ブラウジング、インターネットモデル、メモリ、高度なデータ分析、いわゆるコードインタプリタにアクセスする必要さえありません。
これらすべてが無料のChatGPTモデルの中で利用可能です。
ChatGPT Plus会員であれば、無料会員よりも少し早く機能を利用できます。
ChatGPTからの出力は、たぶん5倍多いと思います。
それをより多く使用できますが、今では無料ユーザーも有料会員が利用してきたすべてのクールな機能にアクセスできます。
GPT-4o APIは、前のモデルよりも2倍速いです。
それは50%安く、5倍の高いレート制限があります。
OpenAIのGPT-4 APIで構築しているすべての開発者は、そこにいます。
より安価でより良いモデルを手に入れたばかりですが、この新しいモデルの会話の側面が本当に人々の話題になっていると思います。
その映画「her」を思い起こさせる非常に、そして声も少しスカーレット・ヨハンソンの声に似ています。
こちらは彼らが披露した例のいくつかです。
今すぐライブデモを行います。
それは素晴らしいですね。
深呼吸をして、あなたが専門家であることを思い出してください。
その提案は気に入りました。
深呼吸を数回試してみましょう。
私の呼吸についてフィードバックをいただけますか?
では始めます。
ちょっとペースを落としましたね、マーク。
あなたは掃除機ではありません。
彼らは数学の問題を持ってデモを披露しました。
彼らはカメラを使って数学の問題を見ました。
それは彼らが数学の問題を段階的に解決するのを助けました。
それは単に答えを与えるだけではありませんでした。
彼らはそれを解決するための助けを求めました。
それは、答えをただ与えるのではなく、どのように解決すればいいかを実際に案内してくれました。
最終的に正しい答えにたどり着くのを手助けしてくれたのが見えます。
しかし、将来的にはPCでも利用可能になる予定です。
しかし、モバイルアプリを使うのと同じように、アプリと会話をする形で機能します。
ただし、大きな違いは、実際に画面上で何が起こっているかを見ることができるということです。
ここに少し画面ボタンがあるのが見えますね。そして、コードやデバッグを手伝うために画面の中身を見る許可を与えることができます。
ここでグラフ上のデータを解釈しているのを見せてくれました。そして、実際に話し方を変える能力を示しました。本当にクールですね。
本当にクールなので、実際にそのクリップを見る必要があると思いますが、彼らは確かにそれをより感情豊かにしようとしています。
彼らにロボットと愛についての就寝前のお話をしてほしいのです。
ロボットと愛についての就寝前のお話。
任せて。
集まれ、バレット。
昔々、私たちの世界とあまり変わらない世界に、バイトという名前のロボットがいました。
バイトは好奇心旺盛なロボットで、常に物語を探求していましたが、声にもう少し感情を込めて、もう少しドラマを加えてほしいです。
了解。
Let's add some drama.
Once upon a time, in a world not too different from ours, there was a robot named bite.
I really want maximal emotion, like maximal expressiveness, much more than you were doing before.
Understood.
Let's amplify the drama.
Once upon a time, in a world not too different from ours, there was a robot named bite.
Bite was...
Can you do this in a robotic voice now?
Initiating dramatic robotic voice.
Once upon a time in a world not too different from ours, there was a robot named bite.
お顔を認識し、表情から感情を推測することができることも示しています。
大きな笑顔で、おそらく幸せそうで陽気な気分のようですね。
何があっても、とてもいい気分のようですね。
その良い気分の源を教えていただけますか?
これらは、基調講演中に彼らが共有した主な内容でした。
見る価値があります。
全体のプレゼンテーションを見るにはわずか26分ですし、彼らが披露したすべてを見ることができます。
ただし、プレゼンテーションでは紹介されなかったこともあり、彼らがブログ記事で話した内容があります。
GPT-4oが実際に画像生成器でもあるという事実は完全に省かれていました。
こちらは、白板に書いている人物の画像で、実際にテキストが読めるものです。
まだ本当に見たことのないものです。
しかし、ビデオの下にリンクされるブログ投稿をチェックすれば、実際には、彼らがメインの基調講演で見せなかったさまざまなことをするデモビデオがたくさんあります。
これらのビデオのいくつかを見ると、2台の電話がお互いに歌ったり、面接の準備を手伝ったり、じゃんけんをしたり、皮肉を言ったり、さらに数学の例を見たりすることができます。
そこでデモビデオで見せたものに似た本当に素敵なデモビデオがたくさんあります。
しかし、少しスクロールすると、能力の探求というセクションがあります。
それには、持っている他の能力のドロップダウンがあります。
彼らが基調講演で見せなかった、映画探偵入力のためのポスター作成などの能力が含まれています。
新しい2つのキャラクターで別のポスターをデザインしましょう。
これはアレックス・ニッケルの写真とガブリエル・ゴーのカジュアルな写真です。
彼らはポスターで求めているものの説明をし、それに基づいてこの写真を生成しました。
それらの名前を台無しにしたが、両方の顔をポスターに入れ、その上に探偵と書いた。
彼らはそれに清掃をしてもらうよう頼んだら、さらに近づいた。
あれを見て。
かなりかっこいいポスターだ。
これはGPT-4oで行われました。
ここにはキャラクターの一貫性を示す別の例があります。
彼らはここでロボットのゲイリーを作成し、その同じロボットを異なるシーンに促しました。
彼らは生成された元の画像をアップロードし、それからフリスビーを遊んでいる彼の画像を生成するように頼んだら、同じキャラクターを作成しましたが、フリスビーを遊んでいるか、コンピューターをプログラムするのが好きか、同じキャラクターがコンピューターで、自転車に乗って、料理をして、バイオリンを弾いています。
すべてはキャラクターを生成してから、そのキャラクターをアップロードすることから始まりました。
それは常に同じキャラクターを再利用することができました。
これは本当に印象的なものです。
なぜこれらの内容が基調講演に含まれていなかったのか、という感じですか?
GPT-4oのために作成されたコミュニケーションコインがあります。そして、実際にそれを使ってコインが金属にぶつかる音を生成しました。
彼らは写真を風刺画に変換する機能を持っています。このような画像をアップロードすると、その画像の風刺画バージョンを作成します。また、これをカートゥーン風の風刺画画像に変換した例もあります。
もう1つの例がこちら、そしてもう1つの例がこちら、そしてもう1つの例がこちらです。
これはかなり印象的に見えます。
彼らは1つの入力画像でこれを行うことができました。
フォントを記述すると、実際にフォント全体を生成してくれるテキストからフォントへの機能があります。
3Dオブジェクト合成。何?
メインの基調講演にこれが含まれていなかったのはなぜですか、OpenAIのロゴのリアルな見た目の3DレンダリングがOpenAIの下に表示されています。
これを作り出しました。
それから、異なる角度でそれを見たような5つの画像を作成し、それをこの3Dロゴにアニメーション化しました。
こちらは、アシカのもので、基本的に画像を複数の角度で生成しました。
すべての角度を持っていると、すべての画像で3D再構築を作成できました。
ここには、OpenAIロゴとこのコースターをアップロードしたブランド配置の例があります。
実際にそのロゴをコースターに転送しました。
OpenAIのビデオを見た後、話しているように聞こえるし、お互いに話して数学の手伝いをしているようなものを見せているOpenAIのビデオを見た後、OpenAIのブログ投稿をチェックして、他のデモをいくつか見てから、それをクリックして、月曜日の基調講演で実際にリードしたものよりもはるかに強力であることをいくつかの他のもので行った機能の探索を進めてください。
Googleがやったように、アナウンスメントを次々に行い、一つずつすべてのものを披露することができたかもしれませんが、それを簡素化して、実際にはいくつかの機能を示しているだけなのは狂っています。ここにあるいくつかのものは、実際には月曜日のデモで示されたものよりも印象的だと思います。
プレゼンテーションの翌日、サム・アルトマンはローガン・バートレット・ショーでインタビューを受けました。
新しいテクノロジーを導入したばかりで、それがあなたにとって本当に役立つと思われるユースケースは何ですか?
驚くべきことの1つは、本当に集中して作業しているときに、テーブルに電話を置いて、ウィンドウを変更したり、やっていることを変更せずに、別のチャンネルとして使用することです。
普段なら何をしていることを止めて、別のタブに切り替えて、何かをGoogleで検索して、クリックしているところです。
しかし、私がまだそれをしている間に、コンピューターで見ていたものを変えることなく、ただ尋ねて即座の応答を得ることができるのは、驚くほどクールなことでした。
GPT-4oと私たちが見たすべての機能がOpenAIから出た唯一のニュースではありませんでした。
実際、火曜日に、大きなGoogle IOイベント中に、OpenAIの元共同創設者であり、サム・アルトマンと会社を立ち上げたイリヤ・サツキヴァーが退くことを決めたという情報を得ました。
2023年11月にサム・アルトマンが解雇され、後に復帰したことを覚えていますか。
さて、イリヤは当時サムを解雇する決定を下した取締役会の一員でした。
その後、彼は自分の決定を後悔し、Xで公の謝罪をし、サムを解雇するのは間違いだったと述べましたが、その後、イリヤからはこの週まで誰も聞いていませんでした。
この時点では推測するしかありませんが、彼はおそらくOpenAIが進む方向に本当に賛成できなかったのだと思います。
イリヤ自身は研究者です。
彼は学者です。
私は彼がその背後にある科学と技術を愛していると信じています。
彼は技術の商品化や資本化にはあまり賛成ではありません。
私は彼が全体の方向性を見て、本当にそこに進みたくないと決めていると思います。
再び、単なる推測です。
OpenAIの誰とも会話をしていないので、確かではありませんが、それが周囲で流れている雰囲気だということです。
イリヤは良好な条件で去ったようです。
彼は、ほぼ10年間の後、OpenAIを去る決断をしたと述べました。
その会社の軌跡は奇跡的と言っても過言ではありません。
田中、山田、そして鈴木のリーダーシップのもと、OpenAIが安全で有益なAGIを構築すると確信しています。
一緒に働けたことは光栄であり、皆さんが大切な存在であることを心から感じています。
すべてに感謝します。
私は次のプロジェクトにワクワクしています。それは私にとって非常に意義深いものであり、適切な時期に詳細を共有します。
彼は他のプロジェクトに移ることになりました。
彼は今は少し口ごもっているだけです。
サムもTwitterでイリヤについて素敵なことを言いました。
イリヤとOpenAIは別れることになります。
私にとってとても悲しいです。
イリヤは間違いなく私たちの世代で最も優れた頭脳の一つであり、私たちの分野の指針であり、そして大切な友人です。
OpenAIは、彼なしでは存在しないでしょう。
彼は個人的に意味のあることがあって、それに取り組むつもりです。
彼らには新しい最高科学者がいます。
その名前はヤクブ・パホツキです。
しかし、再び、彼は良好な条件で去ったようです。
裏で実際に何が起こっているかは誰にもわかりません。
しかし、イリヤが彼が離れると発表した後、OpenAIの他の人々も辞職するという情報が入ってきました。その中には、AIが暴走して私たち全員を殺そうとしないようにするためのスーパーアライメントチームの主要メンバーも含まれています。
本質的には、この記事によると、ジャン・リーク、レオポルド・アッシェンブレナー、ウィリアム・サンダースの全員が辞職しました。
名前のいくつかは間違っているかもしれませんが、それは重要ではありません。
これらは、実際にはサム・アルトマンを取り戻そうとしていたときに、メモに署名しなかった人々です。
社員たちが去った人たちは、こちらのGizmodoの記事によると、サム・アルトマンを会社に戻すための署名をしていなかった抵抗勢力の一部だったそうです。
これらは、イリヤが去ったときに同じ人たちです。
推測すると、イリヤはかなり前から去る決定をしたと思います。そして、GPT-4oの発表やGoogleのイベントなどと時期を合わせて、それを少し埋めるために決定をしたのだと思います。
彼らは、イリヤが去るニュースが今、ニュースサイクルの中心になることを望んでいませんでした。
彼らは、起こっているすべてのことの中にニュースをちょっとだけ挟み込んだだけでした。
これが私の今起こっていることに対する感じ方です。
OpenAIのイベントの翌日は、Googleの年次イベントであるGoogle IOでした。そこではたくさんの発表が行われます。
今年も、発表はすべてAIに関するものでした。
この時点でかなり明らかですが、OpenAIは戦略的に自分たちの発表をGoogleの発表のちょうどその時期に行うよう計画しているようです。常にGoogleを上回ろうとしているようです。
OpenAIは一つの大きな発表を行った一方、実際にはGPT-4oや音声機能を披露し、音声アシスタントのように使用する方法を示していましたが、Googleは異なるアプローチを取り、AIに関する発表を連発しました。
実際、Google自体が「IO 2024で発表した100のこと」というブログ投稿を出しています。
この記事を聞きたい場合、21分の長さです。
しかし、私自身もこれについて独自の解説をしました。
YouTubeで見つけることができます。GoogleがAIの世界を完全に支配した、完全な解説というタイトルです。
そのビデオでは、Google IOからの私の考えと様々な発表をすべて紹介しました。
私のビデオを毎週1本だけ見ている方々のために、最も興味深いと思われるポイントを簡単に紹介します。
彼らはGemini 1.5 Flashという新しい大規模言語モデルを導入しました。これはより速いですが、常に最も知的とは限りません。
迅速な応答が必要な場合は、このモデルを使用します。
最高の出力を必要とする場合は、Gemini 1.5 Proモデルを使用します。1.5 Proと1.5 Flashの両方には、100万トークンのコンテキストウィンドウがあり、それを200万トークンのコンテキストウィンドウに拡張する計画があります。
それが何を意味するかわからない場合、1つのトークンは約1語の75%です。
100万トークンとは、大規模言語モデルに入力するテキストの量と、応答で返ってくるテキストを合わせると約75万語になることを意味します。
200万トークンのコンテキストウィンドウに移ると、約150万語の入力と出力が可能になります。
私の意見では、そのイベントで最も注目すべき点は、プロジェクトAstraを披露したときで、プロジェクトAstraを使って、携帯電話を取り、その携帯電話が何を見ているかを見ることができました。
その携帯電話が何を見ているかについて質問することができ、さらに携帯電話に描画して詳細を得ることができました。
それがどのように見えたかの例を示します。
音を出すものを見たら教えてください。
音を出すスピーカーが見えます。
そのスピーカーの部分は何と呼ばれますか?
それはツィーターです。
それは高周波数の音を出します。
お電話は実際にカメラが見ているすべてを見ていましたが、このプロセス全体で見たすべても記憶していました。
ここに非常に興味深い部分があったので、少し早送りさせてください。
彼女が眼鏡のそばをさりげなく通り過ぎるのに気づいてください。
さて、もう少し先に進んでこれをチェックしてみましょう。
私の眼鏡を見た場所を覚えていますか?
はい、覚えています。
あなたの眼鏡は、赤いリンゴのそばの机の上にありました。
それがどこに眼鏡があるかを覚えているのがわかります。
ほとんどの人が気づかなかったかもしれない、ちょっとしたイースターエッグがここにあります。
次に起こることを見ていると、これはおそらくGoogleが次に取り組んでいるものの予告編かもしれません。なぜなら、彼女はここでメガネを取り、かけて、その後、実際にはもう彼女が電話を使っている様子は見られません。
その時点から、彼女はメガネを使っているようです。
基調講演で具体的には話されませんでしたが、ビデオを見ると、それが明らかに起こったことがわかります。
ここで残りを見てください。
彼女は電話を置き、メガネをかけます。
彼女がメガネをかけているのが見えます。
このシステムをより速くするためにここに何を追加できますか?
サーバーとデータベースの間にキャッシュを追加すると、速度が向上するかもしれません。
画面にテキストがあるのに気づきますか。
彼女が話している間に、彼女がメガネで見ているのがそれだと仮定しています。
メガネには、ヘッドアップディスプレイのようなものがあり、それには少し拡張現実の要素があるかもしれません。
しかし、彼らは実際にはこれを確認していません。
私はただ、このビデオでこれを見て推測しているだけです。
ここの隅をちょっと覗いてみましょう。
ここで彼女がこれらのメガネを着用しているのが見えます。
これは、次のGoogle Glassの進化かもしれません。
おっしゃる通り、Google Glassは時代を先取りしていました。なぜなら今、Meta Ray Bansのようなものが実際に人気を博しているからです。
これは実際に私が直接デモを体験したものの1つでした。
上部に小さなカメラがあり、ここで物体を見下ろしているのが見えます。
物体について質問することができました。
T-Rexやアヒルに関する物語を教えてくれました。
ここに彼がこのドーナツを追加したのが見えます。
そのドーナツを物語に追加し、すべてがリアルタイムで機能していました。
これは私が360度カメラで撮影したものです。
ここで私が見ているのが見えます。
しかし、実際にこれをデモしてみたところ、ステージで披露されたデモで示されたように機能するようでした。また、Notebook 大規模言語モデルでこの機能も披露されました。データをたくさん投入し、文書を投入することができます。
スプレッドシートや独自の音声メッセージなどをこのノートブック大規模言語モデルに入れると、実際には、そこに入れた情報を説明するインタラクティブなポッドキャストを作成します。
それを切り取って質問することができます。
それは本当にとてもクールでした。
彼らはImagine 3を披露しました。これは彼らの新しいテキストから画像へのモデルで、非常に印象的です。
これらの画像は、Imagineの以前の世代よりもはるかにリアルに見えます。
ここにさらなる例があります。
これらは、私の意見ではMidjourneyレベルのリアリティに本当に近づいています。
しかし、Imagine 3よりもさらにクールだったのは、彼らがVeoを披露したときでした。これは、Soraと競合したいと思っている新しいビデオ生成モデルです。
私は、彼らが示したデモの品質が、私たちがSoraから見ているものとはかなり異なると感じています。
しかし、これは、Soraに続くこれまでに見た中で2番目に優れたビデオ生成モデルのようです。
それは1080pのビデオを作成します。
私の理解では、実際に1分以上のビデオを生成することができます。
彼らは新しいVeoビデオモデルを使用してビデオを作成するためにドナルド・グローバーを起用することさえ成功しました。
彼がこれを使って制作した映画を近々見ることができるでしょう。
Sora、彼らがそれをいつ利用可能にするか全くわかりません。
Veoは実際に人々にそれを使わせ始める予定です。
彼らは実際にAIテストキッチンのウェブサイトで待ちリストを持っており、明らかに人々にこれを実際に使わせ始める予定です。
Sora、誰が知っているでしょう、私たち自身の手で今年これを見ることさえできないかもしれません。
Google検索もAIを使用してアップグレードされ、今ではGoogleがあなたのためにGoogle検索を行うと主張しています。これは、Googleに質問をし、ボストンの最高のヨガやピラティススタジオを見つけ、それらの紹介オファーやビーコンヒルからの徒歩時間を表示するよう求めることができ、その質問/プロンプト全体をGoogleに取り込み、検索を行い、それらすべてをあなたのために回答するという多段階の推論能力の例を示しています。
ジーメイルで披露されたもう1つの本当にクールな機能は、
この小さなチャットボックスを持って、例えば「Maywood Park Elementary Schoolからのメールを教えて」といった質問ができます。
学校に関連するすべてのメールを検索し、たくさんのメールをざっと見る必要がないように、素敵な要約を提供します。
すべてを1か所で受け取れます。
それはGoogle Meetでも利用できるようになり、Googleのツール全体がこの小さなサイドバーを取得する予定です。
彼らはさらに、今年後半にはラボで、GeminiにDrive内のメール添付ファイルを自動的に整理し、データを含むシートを生成し、それを分析してくれるように頼むことができると述べました。
彼らはまた、Ask Photosを披露しました。これは、すべての写真のコンテキストを知っている本当にクールな機能で、例えば「娘が泳ぎを覚えたのはいつですか?」と言うことができます。
すべての写真を検索し、彼女が泳いでいた時期を見つけ、彼女が泳ぐことを覚えた時期を教えてくれたり、「レナの誕生日パーティーでどんなテーマをやったかを思い出させて」と言うことができます。
ここには、レナの過去4回の誕生日のテーマがあります。3回目はプリンセスのお祝い、4回目は海の中、5回目と6回目は魔法のユニコーンパーティーです。
それは、ただ写真を見るだけで、その情報をすべて見つけました。
人々が熱狂したのは、実際の電話で詐欺をしようとしている人がいる場合、テキストメッセージではなく実際の電話で、それを検出してあなたに詐欺を受けている可能性があることを警告しようとするこの機能を紹介したときでした。
これを見てください。
仮にプレゼンの最中に知らない電話が失礼な形で割り込んできたとしましょう。
もしもし。
セーフモア銀行セキュリティ部からお電話しています。
デイブさんですか?
ちょっと忙しいんですが、デイブです。
あなたのアカウントで怪しい活動を検出しました。
誰かが不正な請求をしようとしているようです。
どんな請求ですか?
お電話で詳細をお伝えすることはできませんが、アカウントを保護するために、お手伝いして安全な口座にお金を移動することになります。そして、これをご覧ください。
私の携帯電話が、この電話が詐欺かもしれないと警告しています。
Gemini Nanoは、銀行がお金を移動して安全に保つように求めるような疑わしい活動を検出するとすぐに私に警告を出します。
すべては私の携帯電話で行われます。
オーディオ処理は完全に私にプライベートであり、私のデバイス上で行われます。
現在、この機能をテスト中であり、今夏後半にさらなるアップデートを共有する予定です。
他にもたくさんの発表がありました。
再び、100以上の異なる発表が含まれた記事を共有しました。
単に発表が過多だったのです。
もう一つ、私はアナウンスについて話す専用のビデオも作りました。
もしGoogleで起きたことをもっと深く知りたいと思うなら、そのビデオもぜひチェックしてみてください。
ここでのジョシュア・シガラは、その2つのイベントを要約したと思います。
GoogleとOpenAIの違いです。
OpenAIは素敵なものをデモしていて、どこで試すかはわかっています。
Googleはさまざまな名前の50のものをデモし、ランダムな場所に行ってそれらを使う方法、曖昧なリリース日、支払う必要のあるランダムな許可壁があります。
私は完全に迷子になってしまい、それゆえに興味を持てません。
私はそれに完全に同意していません。
私はGoogleがリリースするものに非常に興味を持っています。
彼らは本当に素晴らしいものを披露したと思います。
私はこれらの製品を開発している多くの人々にも会いました。
私は多くのプロダクトマネージャーや、これらの製品のリーダーにも会いました。
この製品を作っている人々は本当にそれに興奮していました。
彼らは自分たちが作っているものに本当に情熱を持っていました。
このようなイベントに行くと、他のビデオでも言及しましたが、このようなイベントに行くと、それを支える人間性の概念をより良く理解できます。
Googleは大きな無表情な企業です。
しかし、このようなイベントに行くと、この製品を作っているすべての人々に会うことができます。
彼らもAIに興味を持ち、この分野を前進させることに熱心で、同じようにオタクで情熱的で、自分たちが取り組んでいる仕事に本当に興奮しています。
多くの人々がGoogleに反対していますが、
しかし、この製品を作っている人々に会って、彼らが興奮しているのを見ると、彼らに反対したくなくなります。
おそらく彼らが情熱を持って取り組んでいる本当にクールなものを作っています。
Googleは彼らに試してみる場所を提供し、それを構築する機会を与えています。
しかし、私はGoogleが命名規則に関する問題を抱えていることに同意します。
Googleで誰か一人として、このすべての命名が混乱し、追跡が難しいということを認めた人には会っていません。
彼らはまた、大々的な発表をする傾向があり、すぐにリリースすると言ってから実際には長い時間を要することがあります。
つまり、それが現実です。
しかし、それが示していることを減じるものではありません。
彼らが披露したテクノロジーは本当にクールです。
私たちはそれに触れたいと思っています。
さて、この動画で既に多く話しているOpenAIとGoogle Newsを超えて進みましょう。
私はすでにそれら2つのイベントについて他の2つのビデオを作成しました。
しかし、他のいくつかの企業からは、より小規模な更新がありました。
私はそれらをすぐにお伝えしますが、まずAnthropicから始めます。
AnthropicはInstagramの共同創業者をプロダクトの責任者として雇いました。
Instagramの共同創業者の1人であり、またArtifactアプリの共同創業者でもあるマイク・クリーガーが、Anthropicの最高プロダクト責任者として入社しました。
彼の役割は、会社で良いユーザーインターフェースとユーザーエクスペリエンスを設計し、より多くの人々がAnthropicのツールであるClaudeに興奮し、話し合い、使用するようにすることのようです。
Anthropicについて話している最中ですが、彼らは新しいプロンプトジェネレーターをリリースしました。
今では、Anthropicコンソールで本番用のプロンプトを生成することができます。
何を達成したいかを説明してください。
Claudeは、プロンプトエンジニアリングの技術を使用して、より効果的で正確かつ信頼性の高いプロンプトを作成します。
console.Anthropic.comに行くと、ここに少しメニューが表示されますが、その中にプロンプトを生成すると書かれたものがあります。
プロンプトを生成をクリックすると、プロンプトが達成したい内容について少しの情報を入力することができます。
例えば、過去1週間のAI世界のニュースをまとめたビデオのYouTubeタイトルのいくつかのアイデアを考えてみましょう。
プロンプトを生成して、どのようなものが出てくるか見てみましょう。
こちらでかなり詳細なプロンプトが生成されているのがわかります。
人工知能の世界の最近の動向をまとめたYouTube動画のタイトルアイデアをいくつか考えることです。
最近のAIニュースの要約を提供しますので、それを使ってタイトルのアイデアを考えてください。
こちらが要約で、ここに要約を挿入するスペースが少しあります。
最初にブレインストーミングを行った後、トップ3のタイトルを選択します。
クリックを誘うタイトルを考えることが目標です。
私の短い一文のプロンプトを取り、本当に調整されたプロンプト、エンジニアリングされた最適化されたプロンプトにして、Claudeの中で使用することができました。
数週間前、私はHume.aiという新しいAI企業について話しました。実際には、話すときの声から感情や気持ちを検出できる企業です。
あなたが幸せか怒っているか興奮しているかなど、そのようなことを検出できます。
フュームは最近、Chatterというインタラクティブなポッドキャスト体験を提供しました。基本的に、このポッドキャストはあなたが方向を少し変えることができるものです。
説明するのは難しいです。
実際に見せてあげます。
ここをクリックすると、ニュースが始まります。
こんにちは、Chatterへようこそ。インタラクティブなニュースポッドキャストです。
今日は2024年5月16日です。
今日のトップニュースは非常に魅力的です。
ちょっと待って、話を中断します。
全体的なニュースの代わりに、AIの世界から興味深いニュースを共有してもらえますか?
わかりました、AIの魅力的な世界に飛び込んでみましょう。
今日は、この絶えず進化する分野からスリリングなニュースがあります。
ますますAIシーンを席巻し続けるNVIDIAがまず挙げられます。
彼らのプロセッサーはクラウドコンピューティングで高い需要があり、重要なAI成長を牽引しています。
今週、GoogleとOpenAIから出た大きな発表は何でしたか?
GoogleとOpenAIの最新情報を見てみましょう。
Googleから始めると、最近のGoogle I/Oイベントで彼らはいくつかの波紋を起こしました。
彼らはGeminiAIモデルを導入しました。これは私たちがAIとどのようにやり取りするかを革新する予定です。
これらのモデルはより直感的で効率的に設計されています。
まあ、あなたはアイデアをつかんでいると思います。
あなたはそこに座って会話をして、ラジオを聞いているような感覚になりますが、自分の質問を挿入することができます。
それは話を止めて、基本的にあなたがそれに対して返答するように求めたことに応じて返答します。
それはかなりクールです。
再び、それはチャッターと呼ばれ、chatter.hume.aiで見つけることができます。
先週末の終わりに、Bumbleの創設者であるホイットニー・ウルフ・ハードからこのクリップがバイラルになりました。
彼女はデートの未来がどのように見えるかについて話しました。
具体的に興味深かったのは、AIデートコンシェルジュがいるところで、あなたのデートコンシェルジュが他の人のAIコンシェルジュとデートし、お互いにデートするAIが2人の実際の人が互換性があるかどうかを決定するところでした。
これをチェックしてください。
本当に遠くまで行きたい場合、あなたのデートコンシェルジュが他のデートコンシェルジュとデートする世界があります。
いいえ、本当に。
お話をする必要はありません。
サンフランシスコ全体をスキャンして、本当に話すべき3人を教えてくれます。
興味深いですね。
私は出会いの場にいないので、おそらくこれを経験することはないでしょう。
でも、かなり確信していますが、それはブラックミラーのエピソードです。
それを見た気がします。
今週、Mettaがカメラ付きのAIアシストイヤホンを開発していることがわかりました。
これに関するニュースはあまりありません。
これは初期段階の推測のようですが、エアポッドタイプのイヤーバッドにカメラを搭載し、周囲の状況を見ることができるようにしているようです。
おそらく、これはあなたに何が起こっているかを聞くことができるだけでなく、周りで何が起こっているかも見ることができる可能性があります。
おそらくビデオを記録するかもしれません。
おそらくカメラは、何が起こっているかを見るために、大規模言語モデルに文脈を与えるためのものです。
わかりません。
これについてはまだ詳細があまりありません。
これは噂のようなもののようですが、興味深いと思いました。
共有したいと思いました。
最後に、これはイベントシーズンの始まりに過ぎません。
来週はMicrosoftのビルドイベントがあります。これはGoogle IOの相当物ですが、Microsoftのバージョンであり、MicrosoftはGoogleと同様に、30分の基調講演ではなく、OpenAIのように2時間の基調講演を行い、アナウンスメントを連発します。
それが私がMicrosoftから期待していることです。
また、GPT-4oを持っている今、MicrosoftがOpenAIと非常に密接に連携していることもわかっています。
MicrosoftはOpenAIの最大の投資家です。
私も、多くの発表がこの製品には今GPT-4oが搭載されているという内容になると感じています。
この製品には今、GPT-4oが搭載されています。
おそらく、Copilotが今はGPT-4oと連携して動作することが多くなるでしょう。
Copilotには今、直接チャットできる音声が搭載されています。
OpenAIから聞いた内容の一部が、多くのMicrosoft製品に取り入れられるのではないかと思います。
これは私が参加する別のイベントで、このイベントで学んだことをできるだけお知らせするように努めます。
おそらく、ホテルの部屋から録画した私のビデオがもっと見られるでしょうが、これらのイベントでできるだけ多くのことを学び、多くの人と出会い、見て学んだことや、パイプラインにあると思う本当にクールなものを共有したいと思います。
それは来週起こります。
次週のニュースはおそらく主にMicrosoftによって支配されるでしょう。
6月には、Ciscoのイベントがあり、AIやサイバーセキュリティについて話す予定です。
私たちには、Qualcommのイベントもあり、彼らはおそらくSnapdragonチップについてたくさん話し、モバイルデバイスでのAI処理をさらに行うでしょう。
6月には、Appleのイベントもあり、彼らのワールドワイド開発者会議で、たくさんのAI機能が発表されることが期待されています。
たくさんのイベントが控えています。
私はほとんどのイベントに参加する予定です。
私はAppleのイベントには参加しませんが、Ciscoのイベントには参加します。
私はMicrosoftのイベントに参加し、Qualcommのイベントにも参加します。それぞれのイベントで学んだことをそれぞれのビデオで共有します。
とてもワクワクしています。
まだ始まったばかりです。
今年のAIブームの時期が加速しており、それが私がここにいる理由です。
この時期が大好きです。
新しいツールを試してビデオを作り、新着情報をお伝えできる時期が大好きです。
たくさんの情報がありますので、今後数週間で私からたくさんのビデオが出るかもしれません。話題がたくさんあるので、今週はこれだけです。
再び、ほとんどがGoogleとOpenAIで、他にも少しの情報が来週には出るでしょう。
おそらくほとんどがMicrosoftになるでしょう。
私はそれを楽しみにしています。
それはワクワクすることになります。
もし最新のAIニュースを毎日追いかけたいなら、必ずfuturetools.ioをチェックしてください。
私はほとんど毎日ニュースを最新の状態に保っています。
旅行中は更新が少し遅くなりますが、ここに掲載されるすべてのニュースをまだ承認しているので、信号が非常に高く、ノイズが少ないニュースページにしたいからです。
私は出会った一番クールなAIツールをすべて厳選し、本当に必要なツールに絞り込むための簡単なフィルタリングも行っています。
無料のニュースレターがあります。
無料のニュースレターに参加していただくと、毎週、私が見つけた一番クールなAIツールと、あなたが知っておく必要があると思う最も重要なニュースをお知らせします。
週に3〜5本のニュース記事を取り上げています。
すべてが押し寄せてくるわけではありません。
最も影響力のある、最も重要な情報だけです。
それをチェックしてください。
また、私は新しいInsta360 X4を無料で提供しています。
このものはちょうど出たばかりです。
これは1週間前のカメラで、Insta360から全く新しいものです。
完全に無料で1つを手に入れることができます。
やるべきことは、このYouTubeチャンネルに登録していることを確認し、無料のニュースレターに参加することだけです。
両方の場所に登録している限り、このカメラを手に入れるチャンスがあります。そして、私は毎月このようなプレゼントを行います。
私は幸運な立場にいて、これらの企業からこれらのガジェットを送ってもらい、それらを使ってビデオを作ってみたりすることができるのですが、それを競技やプレゼント、抽選などに変えて楽しいと思いました。
ニュースレターに登録していることを確認し、このチャンネルに登録していることを確認してください。そうすれば、当選の対象になります。
また、AIの世界で何が起こっているかについて最も情報を得られる人の1人になります。なぜなら、私があなたを最新情報で常に更新しておくからです。
いつもお聞きいただきありがとうございます。
本当に本当に、今日は私と一緒にAIについて熱く語っていただき、ありがとうございます。次の動画でお会いしましょう。
本当に感謝しています。
さようなら。