見出し画像

【マシューのAIニュース】英語解説を日本語で読む【2023年9月30日|@Matthew Berman】

OpenAIはDolly 3をリリースし、Chat GPTにウェブブラウジング機能を復活・マルチモーダル機能を追加した。Sam Almanは冗談でAGI達成を発表。Johnny IとSam AlmanのAI iPhone制作の噂。TeslaのOptimusロボットは自己キャリブレーション能力を持つ。MetaはAI機能のサングラスをRaybanと共同で、またMeta AIやAIキャラクター、AI生成アート製品Emuをリリースした。MicrosoftはWindows 11にAIアシスタント「Copilot」を搭載。SpaceXは米国宇宙軍との衛星通信契約を獲得。CIAは中国対抗のAIツールを開発中。Quantum ComputingにはGoogleやIBMが投資。YouTubeはAI機能をクリエイター向けに追加。GoogleはOpenAI対抗のAIモデル「Gemini」を開発中。
公開日:2023年9月30日
※動画を再生してから読むのがオススメです。


And we're back.

そして我々は戻ってきた。

Not only am I back from traveling last week, but the world of AI is back in a big way with an absolutely insane week of AI news.

先週の旅行から戻ってきただけでなく、AIの世界もAIのニュースで大いに盛り上がっています。

This week, the AI battle between Meta and OpenAI heated up with numerous game-changing launches from OpenAI, bringing incredible new capabilities to ChatGPT.

今週、MetaとOpenAIのAIバトルは、OpenAIの数々のゲームチェンジャーによってヒートアップし、ChatGPTに信じられないような新機能をもたらしました。

Meta is also launching more AI features and a pair of AI-enabled sunglasses.

Metaもまた、さらなるAI機能とAI対応サングラスを発表している。

Amazon is catching up in the AI race with a massive investment in a leading AI company.

アマゾンは大手AI企業に巨額の投資を行い、AI競争に追いつこうとしている。

Tesla is showing off its updated Optimus robot, and Microsoft launches Windows 11 with AI built into everything.

テスラは最新のOptimusロボットを披露し、マイクロソフトはAIを全てに組み込んだWindows 11を発表する。

Sit back, relax, remember to subscribe for breakdowns of all the most important AI news, and let's go!

座ってリラックスし、最も重要なAIニュースの内訳を見るために購読することを忘れないでください!

OpenAI absolutely dominated AI news this week with a number of new launches.

今週のAIニュースは、OpenAIが数々の新機能を発表し、完全に独占した。

Honestly, even if they launched just one of these things, it would have been incredible.

正直なところ、これらのうちの一つを発表するだけでもすごいことだ。

First, OpenAI launched Dolly 3.

まず、OpenAIはDolly 3を発表した。

This actually happened last week, but I didn't get a chance to talk about it.

これは実は先週行われたのだが、その話をする機会がなかった。

Dolly 3 is the newest version of their generative Art Product, which directly competes with Midjourney and Leonardo.

Dolly 3はジェネレーティブ・アート製品の最新バージョンで、MidjourneyやLeonardoと直接競合する。

From the initial samples I've seen, Dolly is now on par with the newest version of Midjourney.

私が見た最初のサンプルでは、ドリーはMidjourneyの最新バージョンと同等になっている。

Check out some of these images.

これらの画像をご覧ください。

What also impresses me is the range of styles it can create.

また、私が感心したのは、ドリーが作成できるスタイルの幅の広さだ。

Version 3 is a big leap forward compared to version 2.

バージョン3は、バージョン2に比べて大きな飛躍です。

Check out this example comparing V2 to V3 with the prompt: An expressive oil painting of a basketball player dunking depicted as an explosion of a nebula.

V2とV3をプロンプトで比較した例をご覧ください: 星雲の爆発のように描かれたバスケットボール選手のダンクの表現力豊かな油絵。

Dolly 3 also seems to be really capable of producing legible text in these images, which has always been a struggle for generative art.

ドリー3はまた、ジェネレーティブ・アートでは常に苦労してきた、読みやすいテキストを画像内に生成することができるようだ。

Additionally, it's built natively on ChatGPT, which means you can use ChatGPT as a brainstorming partner to help create the best prompts.

さらに、ChatGPT上でネイティブに構築されているため、ChatGPTをブレインストーミングのパートナーとして使用し、最適なプロンプトを作成することができる。

This is already a popular technique to create prompts with Midjourney, and now it's seamlessly built into the ChatGPT workflow.

これはすでにMidjourneyでプロンプトを作成するための一般的なテクニックですが、今ではChatGPTのワークフローにシームレスに組み込まれています。

OpenAI spent a lot of time safety testing Dolly 3.

OpenAIはDolly 3の安全性テストに多くの時間を費やしました。

According to their blog post, Dolly 3 has mitigations to decline requests that ask for public figures by name.

彼らのブログポストによると、Dolly 3は公人の名前を尋ねるリクエストを拒否する緩和策を持っています。

They improve safety performance in risk areas like generation of public figures and harmful biases related to visual over/under representation.

これらは、公人の生成や視覚的な過不足表現に関連する有害なバイアスなどのリスク領域における安全性能を向上させる。

In partnership with red teamers and domain experts who stress test the model, they help inform risk assessment and mitigation efforts in areas like propaganda and misinformation.

モデルをストレステストするレッドチーマーやドメインエキスパートとの連携により、プロパガンダや誤報のような分野におけるリスク評価と緩和の取り組みを知らせるのに役立つ。

This, of course, is going to be a huge problem as all of these AI tools become better.

もちろん、こうしたAIツールのすべてがより優れたものになるにつれて、これは大きな問題になるだろう。

Right now, Dolly 3 is only available to ChatGPT plus and Enterprise users, but that $20 a month is continuing to increase in value, especially when you hear some of these next stories.

現在、ドリー3はChatGPTプラスとエンタープライズのユーザーしか利用できないが、月額20ドルの価値は、特に次のような話を聞けば、ますます高まっていくだろう。

Another OpenAI launch that went under the radar but is incredibly important is web browsing in ChatGPT.

もう一つのOpenAIのローンチは、ChatGPTでのウェブブラウジングです。

Now, ChatGPT has access to the entire internet instead of just what is built into the model.

今、ChatGPTはモデルに組み込まれたものだけでなく、インターネット全体にアクセスできます。

Where we would frequently get the my knowledge cutoff date is September 2021 warnings.

私たちは頻繁に私の知識の切れ目は2021年9月ですという警告を受けます。

But you're probably thinking, Didn't ChatGPT already have web browsing?

でも、ChatGPTはすでにウェブ・ブラウジングが可能だったのでは?

And the answer is, yeah, they did.

そして答えは、そうです、彼らはしました。

It was an incredible feature.

素晴らしい機能でした。

But a couple of months ago, OpenAI disabled it without much explanation.

しかし数ヶ月前、OpenAIは大した説明もなくこの機能を無効にしました。

The only reason they gave is that sometimes ChatGPT browsing would occasionally display content in unintended ways.

唯一の理由は、ChatGPTのブラウジングが意図しない方法でコンテンツを表示することがあるということでした。

So, the example that they provided is users asking for the full text of a URL, and ChatGPT would actually give it.

つまり、彼らが提示した例は、ユーザーがURLの全文を要求し、ChatGPTが実際にそれを与えるというものです。

And that's probably a big copyright risk exposure for the company, and why they decided to take it down.

これはおそらく同社にとって大きな著作権リスクであり、ChatGPTの削除を決めた理由でもある。

But now, website owners can decide whether they want ChatGPT to be able to pull content from their site or not through the robots.txt file, which is the same thing that web crawlers use like Google.

しかし今、ウェブサイトの所有者は、Googleのようなウェブクローラーが使用するものと同じものであるrobots.txtファイルを通して、ChatGPTが自分のサイトからコンテンツを引き出せるようにするかどうかを決めることができます。

I'm glad browsing is back because it makes ChatGPT much more powerful.

ChatGPTがより強力になるので、ブラウジングが復活して嬉しいです。

And in the biggest and most impressive launch this week by OpenAI, ChatGPT now has the ability to see, hear, and speak.

そして、OpenAIによる今週最大かつ最も印象的なローンチでは、ChatGPTは現在、見る、聞く、話す能力を備えています。

This is called multimodal, and this multimodal capability allows ChatGPT to be able to read images and have voice dialogue with users.

これはマルチモーダルと呼ばれ、このマルチモーダル機能により、ChatGPTは画像を読み上げたり、ユーザーと音声対話することができる。

In an example provided in the launch blog post, a user asks ChatGPT how to lower their bike seat and provides a picture of the bike for context.

ブログ記事で紹介されている例では、あるユーザーがChatGPTに自転車のシートの下げ方を尋ね、文脈のために自転車の写真を提供します。

ChatGPT then provides some advice, and the user follows up with another image showing the specific part of the bike that might need to be adjusted.

ChatGPTはいくつかのアドバイスを提供し、ユーザーは調整する必要がありそうな自転車の特定の部分を示す別の画像でフォローアップする。

After this back and forth, ChatGPT provides advice for the user's specific bike.

このやりとりの後、ChatGPTはユーザーの特定の自転車に対するアドバイスを提供します。

Then, the user shows a picture of their toolset, and ChatGPT tells the user which tool to use.

そして、ユーザーは自分の工具セットの写真を見せると、ChatGPTはどの工具を使うべきかを教えてくれる。

It's absolutely mind-blowing.

これには本当に驚かされました。

I've been collecting some insane examples of ChatGPT vision, such as taking a handwritten website flowchart, and ChatGPT just builds the entire website.

例えば、手書きのウェブサイトのフローチャートを作成すると、ChatGPTはウェブサイト全体を構築します。

Let me know in the comments if you want me to put together a video showing off all the amazing examples of ChatGPT vision that I've been collecting.

もし、私が集めたChatGPTビジョンの素晴らしい例を紹介するビデオを作りたいなら、コメントで教えてください。

But that's not all.

しかし、それだけではありません。

ChatGPT also can now communicate with voice and can have full conversations.

ChatGPTは音声コミュニケーションもできるようになり、完全な会話ができるようになりました。

Simply open the ChatGPT app on your phone and start talking.

スマホでChatGPTアプリを開いて話し始めるだけ。

ChatGPT will also reply back with a voice, rather than only text.

ChatGPTもテキストだけでなく、音声で返事を返してくれる。

They trained it using voice actors, and the voice is actually really good, not robotic at all.

声優を使って訓練したそうだが、その声は実にうまく、ロボットっぽさはまったくない。

Larry was a unique Hedgehog, unlike any other.

ラリーは他の誰とも違うユニークなヘッジホッグだった。

These features are rolling out over the next 2 weeks to ChatGPT plus users.

これらの機能は、今後2週間かけてChatGPTプラスのユーザーに展開される。

OpenAI has also given Spotify podcasters the ability to translate their voice into different languages.

OpenAIはまた、Spotifyのポッドキャスターに、自分の声をさまざまな言語に翻訳する機能を与えた。

But it's not dubbed or transcribed, it's the actual podcaster's voice but in different languages.

しかし、それは吹き替えでも書き起こしでもなく、実際のポッドキャスターの声ですが、異なる言語です。

Imagine this video with my voice, except I'm speaking Spanish, Portuguese, Italian, French, Mandarin.

私の声で、スペイン語、ポルトガル語、イタリア語、フランス語、北京語を話していることを除いて、このビデオを想像してみてください。

It's really incredible and opens up my content and everybody's content to a much wider audience throughout the world.

これは本当にすごいことで、私のコンテンツやみんなのコンテンツを世界中のもっと幅広い視聴者に開放してくれる。

Check out this clip from Lex Fridman showing him speaking in Spanish.

レックス・フリードマンがスペイン語で話している映像をご覧ください。

How do you think all of these features is what Siri could have been all this time?

これらの機能は、Siriがこれまでずっと実現できていたものだと思いますが、いかがですか?

And Apple has some big goals to hit to compete with ChatGPT, although I know they're working on a lot of this functionality and bringing it into Siri.

AppleはChatGPTに対抗するために達成しなければならない大きな目標がありますが、彼らはこの機能の多くに取り組んでSiriに取り込んでいることを知っています。

Okay, I know it seems like just OpenAI news this week, but we're almost done.

さて、今週はOpenAIのニュースばかりのような気がしますが、もう少しで終わります。

On Reddit, Sam Altman seemingly confirmed OpenAI achieved AGI, but quickly followed up to make sure people knew he was kidding.

Redditで、サム・アルトマンはOpenAIがAGIを達成したことを確認したようだが、すぐに冗談だとわかるようにフォローした。

Haha!

ははは!

For a company whose goal is AGI and the clear leader in cutting-edge AI technology, this joke landed flat on its face.

AGIを目標とし、最先端のAI技術をリードしている会社にとって、この冗談は本末転倒だ。

I don't know why he would have joked about it.

なぜ冗談を言ったのかわからない。

It could easily have been real and scared a lot of people.

それは簡単に本物であり、多くの人々を怖がらせることができました。

But again, he clarified that he's joking and that if he were actually to announce it, he wouldn't do it in a Reddit comment.

しかし、彼は再び、冗談であり、実際に発表するとしてもRedditのコメントではしないと明言した。

Fair enough, but still not funny.

十分フェアだが、それでも面白くない。

He should probably stick to building AI and leave the jokes for comedians.

彼はAIを作ることに専念し、冗談はコメディアンに任せるべきだろう。

The last story about OpenAI is an interesting rumor.

OpenAIに関する最後の話は興味深い噂だ。

The famed designer Jony Ive, who helped transform Apple into the design powerhouse it is today with his work on products like Mac, iPods, iPhones, is reportedly in talks with Sam Altman to create the iPhone of AI.

有名なデザイナー、ジョニー・アイブは、Mac、iPod、iPhoneなどの製品に携わり、アップルを今日のようなデザイン大国に変貌させた人物だが、AIのiPhoneを作るためにサム・アルトマンと交渉中だと報じられている。

Apparently, they've raised a billion dollars from SoftBank CEO and founder Masayoshi Son for the project and could include chipmaker ARM for the hardware.

どうやら彼らは、このプロジェクトのためにソフトバンクのCEOで創業者の孫正義から10億ドルを調達し、ハードウェアにはチップメーカーのARMを含める可能性があるようだ。

There's very little in the way of confirmations about this story, but as it unfolds, I'll definitely keep you posted.

この話について確認できることはほとんどないが、進展があれば、ぜひまたお伝えしたい。

Next, as we accelerate into the future, Tesla released a new video of their Optimus robot.

次に、未来への加速として、テスラはオプティマスロボットの新しいビデオを公開した。

Since launching just a couple of years ago, Optimus has vastly improved.

わずか数年前の発表以来、オプティマスは大きく進化している。

I mean, at the initial launch, it was literally humans dressed in robot suits dancing around.

つまり、最初の発表では、文字通りロボットスーツを着た人間が踊っていたのだ。

In this update video, Optimus is now capable of self-calibration of its arms and legs using only vision and joint position, and coding sorting blocks by color, even when the environment is dynamically changing and balancing on one leg.

このアップデートのビデオでは、オプティマスは現在、視覚と関節の位置だけを使って腕と脚のセルフキャリブレーションが可能で、環境がダイナミックに変化しているときでも、ブロックを色別に分類し、片脚でバランスをとるコーディングができる。

Boston Dynamics is still the king of robotics for now, with its robots able to literally do parkour.

ボストン・ダイナミクスは、文字通りパルクールをこなすロボットで、今のところまだロボット工学の王者である。

But they've been working on it for decades, and as mentioned, Tesla is only a couple of years into their development, and the progress they've made is impressive.

しかし、彼らは何十年もそれに取り組んできたし、前述の通り、テスラは開発に着手してまだ2、3年しか経っていないが、その進歩には目を見張るものがある。

Next, Meta had a few major AI launches this week.

次に、メタ社は今週いくつかの主要なAIを発表した。

First, Meta launched Meta AI, which is a new AI experience across all their family of products.

まず、MetaはMeta AIを発表した。Meta AIは、同社の全製品にまたがる新しいAI体験である。

Meta AI, in beta, is an advanced conversational assistant that will be available in WhatsApp Messenger and Instagram.

Meta AIはベータ版で、WhatsApp MessengerとInstagramで利用可能な高度な会話アシスタントだ。

It'll also be coming to the new Quest 3 VR, as well as their new sunglasses product.

また、新しいQuest 3 VRや新しいサングラス製品にも搭載される予定だ。

According to Meta's blog post, Meta AI is powered by a custom model that leverages technology from LLaMA 2 and their latest large language model research.

Metaのブログポストによると、Meta AIは、LLaMA 2の技術と最新の大規模言語モデル研究を活用したカスタムモデルを搭載している。

In text-based chats, Meta AI has access to real-time information through their search partnership with Bing and also offers a tool for image generation.

テキストベースのチャットでは、Meta AIはBingとの検索パートナーシップを通じてリアルタイムの情報にアクセスでき、画像生成ツールも提供している。

So, Microsoft is not only powering ChatGPT browsing, but now also Meta AI browsing.

つまり、マイクロソフトはChatGPTのブラウジングだけでなく、Meta AIのブラウジングもサポートしているのだ。

Seems like the clear winner here is Microsoft.

ここでの勝者は明らかにマイクロソフトのようだ。

Additionally, Meta is creating AIs that have more personality, opinions, and interests, and are a bit more fun to interact with.

さらに、Metaは、より個性的で、意見や興味を持ち、対話するのが少し楽しいAIを作成している。

Along with Meta AI, there are 28 more AIs that you can message on WhatsApp Messenger and Instagram.

Meta AIに加え、WhatsAppメッセンジャーやInstagramでメッセージのやり取りができるAIが28種類ある。

You can think of these AIs as a new cast of characters, all with unique backstories.

これらのAIはユニークなバックストーリーを持つ新しいキャラクターと考えることができます。

Some of these characters include TikTok star Charlie D'Amelio, Chris Paul, Kendall Jenner, Mr. Beast, and Snoop Dogg.

TikTokのスターであるCharlie D'Amelio、Chris Paul、Kendall Jenner、Mr. Beast、Snoop Doggなどです。

A full list of characters can be found on the blog post, which I'll link to in the description below.

ブログ記事にはキャラクターの完全なリストがあります。以下の説明にリンクを貼ります。

I'm all about AI Snoop Dogg.

私はAIスヌープ・ドッグに夢中です。

Who are you going to use?

あなたは誰を使いますか?

Meta also launched Emu, their next-generation AI generative art product.

メタ社はまた、次世代AIジェネレーティブ・アート製品「Emu」を発表した。

Emu is looking to compete directly with Midjourney and is built directly into a number of their different products, including Messenger.

EmuはMidjourneyと直接競合することを狙っており、Messengerを含む同社のさまざまな製品に直接組み込まれている。

Emu will also be capable of creating stickers, which are incredibly popular on the Messenger platform.

Emuは、Messengerプラットフォームで絶大な人気を誇るステッカーも作成できる。

They're also building AI generative art functionality into Instagram and WhatsApp.

彼らはまた、InstagramとWhatsAppにAIジェネレーティブアート機能を組み込んでいる。

Continuing the theme of adding generative art to their products, Meta is also adding AI image editing using learnings from their Segment Anything research paper.

自社製品にジェネレーティブ・アートを加えるというテーマを継続し、Metaもまた、Segment Anythingの研究論文からの学習を使ってAI画像編集機能を追加する。

For example, you'll be easily able to change the backdrop of a photo to change the location with a feature called Backdrop.

例えば、Backdropと呼ばれる機能で、写真の背景を簡単に変えて場所を変えることができるようになる。

And in the name of safety, they're going to clearly mark images that were created or manipulated with AI.

また、安全性の名目で、AIで作成または操作された画像には明確なマークを付ける予定だ。

And you already know I'm a big fan of doing this.

そして、私がこのようなことをする大ファンであることはすでにご存知の通りだ。

I think all AI-generated content should be marked as such.

AIで生成されたコンテンツはすべて、そのようにマークされるべきだと思う。

Next, as mentioned, Meta is launching sunglasses in partnership with Ray-Ban.

次に、前述の通り、メタはレイバンと提携してサングラスを発売する。

These glasses actually look normal.

このメガネは実際に普通に見える。

Remember Google's attempt at making smart glasses about a decade ago?

10年ほど前にグーグルがスマートグラスを作ろうとしたのを覚えているだろうか?

Yeah, this isn't that.

そう、これはそれとは違う。

Meta glasses will include a ton of AI functionality and allow you to livestream, capture photos, play music, make phone calls, and chat with Meta AI easily.

Metaのメガネには大量のAI機能が搭載され、ライブストリーム、写真撮影、音楽再生、電話、Meta AIとのチャットが簡単にできるようになる。

These glasses will come in two styles and a number of color variations.

このメガネには2つのスタイルと多くのカラーバリエーションがある。

And the only real distinction that makes them clearly unique are the cameras on the front.

そして、それらを明確にユニークにする唯一の本当の違いは、前面のカメラです。

This seems like a privacy nightmare, but everyone already has cameras in their pocket, so maybe this isn't much different.

これはプライバシーの悪夢のように思えるが、すでに誰もがポケットにカメラを持っているのだから、大差ないのかもしれない。

What do you think?

あなたはどう思いますか?

Meta also launched a new version of their Quest VR headset.

Metaはまた、Quest VRヘッドセットの新バージョンを発表した。

With all of the AI news coming from Meta lately, it's easy to forget that Mark Zuckerberg pivoted their entire company around the metaverse.

最近MetaからAIのニュースばかりが流れてくるので、マーク・ザッカーバーグがメタバースを軸に会社全体を方向転換したことを忘れがちだ。

Quest 3 will come with increased processing power, improved graphics and resolution, a slimmer profile, and improved sound quality.

Quest 3は、処理能力の向上、グラフィックと解像度の改善、薄型化、音質の向上が図られる予定だ。

Meta is racing to prepare for the soon-to-be-launched Apple Vision headset.

メタは、間もなく発売されるアップル・ビジョン・ヘッドセットに備えるために競争している。

I've played around with VR headsets in the past, but they've never really become part of my daily workflow.

私は過去にVRヘッドセットで遊んだことがあるが、日常的なワークフローの一部にはならなかった。

They're really cool, but I just haven't found daily use cases for them.

本当にクールなのだが、日常的な使用例が見つからないのだ。

I'm incredibly excited for Apple Vision, and maybe that's because I'm a big Apple fanboy.

私はApple Visionにとても興奮している。それは私が大のAppleファンボーイだからかもしれない。

But this new Meta Quest also looks really cool, and the Meta Quest will come in at $499, which is 1/7th the cost of the Apple Vision.

しかし、この新しいMeta Questもとてもクールで、Meta Questの価格は499ドルで、Apple Visionの7分の1だ。

So, Meta is really taking a very different go-to-market approach than Apple.

つまり、MetaはAppleとは全く異なる市場アプローチを取っているのだ。

However, Meta is clearly labeling the Quest 3 as a mixed reality headset, whereas before, I believe they only called it virtual reality.

しかし、MetaはQuest 3をMixed Realityヘッドセットと明確に表示している。

This is likely in response to Apple calling their headset mixed reality and never using the words virtual reality.

これはおそらく、アップルが自社のヘッドセットを複合現実と呼び、バーチャルリアリティという言葉を使わなかったことに対抗したものだろう。

It seems the term VR has gone out of style.

VRという言葉は流行らなくなったようだ。

Next, Mistral AI has launched its own 7 billion parameter large language model.

次に、ミストラルAIは独自の70億パラメータ大規模言語モデルを発表した。

This new model, called Mistral 7B, beats LLaMA 2.7B on all benchmarks and LLaMA 1.34B on many benchmarks.

Mistral 7Bと呼ばれるこの新しいモデルは、すべてのベンチマークでLLaMA 2.7Bを、多くのベンチマークでLLaMA 1.34Bを上回っている。

And best of all, it's truly 100% open source, coming with an Apache 2.0 license.

そして何よりも、Apache 2.0ライセンスによる100%オープンソースである。

According to the launch blog post, it approaches code LLaMA 7B performance on code while remaining good at English tasks.

発表されたブログ記事によると、英語のタスクに優れながら、コード上ではLLaMA 7Bのパフォーマンスに近づいている。

All of the AI benchmarks are fine, but I found that they don't necessarily translate to real-world use cases.

AIのベンチマークはどれも素晴らしいが、実際の使用例には必ずしも当てはまらないことがわかった。

Do you want me to run a full test on it myself and make a video about it?

私自身で完全なテストを行い、それについてのビデオを作りましょうか?

Let me know in the comments.

コメントで教えてください。

Next, not to be left out of the AI race, Amazon made a couple of AI announcements this week.

次に、AI競争から取り残されることなく、アマゾンは今週いくつかのAIに関する発表を行った。

First, Amazon acquired a large stake in the AI company Anthropic.

まず、アマゾンはAI企業Anthropicの株式を大量に取得した。

Anthropic is the maker of Claude, a direct and extremely capable competitor to ChatGPT.

Anthropic社は、ChatGPTの直接のライバルであり、非常に有能なClaudeのメーカーである。

Amazon invested $4 billion into Anthropic but also signaled a larger collaboration between the two companies, including AWS becoming Anthropic's primary cloud provider.

アマゾンはAnthropicに40億ドルを投資したが、AWSがAnthropicの主要クラウドプロバイダーになるなど、両社のより大きな協力関係を示唆した。

The two companies already launched the cloud model on Amazon Bedrock, which is one of their many AWS cloud services.

両社はすでに、AWSの数あるクラウドサービスのひとつであるAmazon Bedrock上でクラウドモデルの提供を開始している。

You'll be able to customize and fine-tune Claude using Bedrock.

Bedrockを使ってクロードをカスタマイズし、微調整できるようになる。

Claude's AI capabilities will also start to be incorporated into other Amazon products.

クロードのAI機能は、他のアマゾン製品にも組み込まれ始めるだろう。

This is a smart move by Amazon, echoing a similar strategy between Microsoft and OpenAI, with Microsoft's enormous investment in OpenAI and also providing them with cloud services through Azure.

マイクロソフトがOpenAIに莫大な投資を行い、Azureを通じてクラウドサービスも提供していることから、これはマイクロソフトとOpenAIの同様の戦略と呼応する、アマゾンの賢い動きだ。

Amazon is also bringing generative AI functionality to Alexa.

アマゾンはまた、アレクサにジェネレーティブAI機能を搭載しようとしている。

According to Dave Limp, the SVP of Devices and Services at Amazon, Our latest model has been specifically optimized for voice and the things we know our customers love, like having access to real-time information, efficiently controlling their smart home, and getting the most out of their home entertainment.

アマゾンのデバイス・サービス担当SVPであるデイブ・リンプによると、「我々の最新モデルは、音声と、リアルタイム情報へのアクセス、スマートホームの効率的なコントロール、ホームエンターテインメントの最大活用といった、我々の顧客が好きだと分かっていることに特に最適化されている」。

Amazon's new AI and Alexa will be conversational and will not only take into account voice but also body language, eye contact, and gestures.

アマゾンの新しいAIとアレクサは会話型になり、音声だけでなく、ボディランゲージ、アイコンタクト、ジェスチャーも考慮されます。

You'll also be able to control your smart home, for which Amazon has been the clear winner in the space for a while.

また、アマゾンがしばらくの間、この分野で明確な勝者であったスマートホームのコントロールもできるようになる。

Next, Leonard, a competitor to Midjourney but with an amazing interface, has launched a new feature called Elements.

次に、Midjourneyの競合だが素晴らしいインターフェースを持つLeonardが、Elementsと呼ばれる新機能を発表した。

Elements adds the ability to incorporate Luras into your GAN workflow.

Elementsは、GANワークフローにLurasを組み込む機能を追加する。

According to the announcement, We have simplified the process for you to seamlessly blend various styles, mix models, and achieve incredible effects that align perfectly with your creative vision.

発表によると、様々なスタイルをシームレスにブレンドし、モデルをミックスし、クリエイティブなビジョンに完璧に沿った素晴らしいエフェクトを実現するためのプロセスを簡素化しました。

You can create an array of powerful effects on your generated images by combining artistic styles such as Baroque, Glass, Steel, Inferno, and many more.

バロック、グラス、スティール、インフェルノ、その他多くのアーティスティックなスタイルを組み合わせることで、生成された画像に強力なエフェクトの数々を作り出すことができます。

Leonard is clearly the David versus multiple Goliaths, including Midjourney and Dolly 3, but I've been a big fan of Leonard from the very early days.

Leonardは、MidjourneyやDolly 3を含む複数のゴリアテに対するダビデであることは明らかですが、私はごく初期の頃からLeonardの大ファンでした。

One of my first videos was about Leonard, so I'm rooting for them.

私の最初のビデオのひとつがレナードについてのものだったので、彼らを応援しています。

Elements is available for all users right now, so be sure to check it out.

エレメンツは今なら全ユーザーが利用可能なので、ぜひチェックしてほしい。

Microsoft this week launched Windows 11 with Copilot.

マイクロソフトは今週、コパイロットを搭載したWindows 11を発表した。

According to the announcement, New for Windows 11, Copilot in Windows is an AI-powered intelligent assistant that helps you get answers and inspirations from across the web, supports creativity and collaboration, and helps you focus on the task at hand.

発表によると、Windows 11の新機能であるCopilotは、AIを搭載したインテリジェントなアシスタントで、ウェブ全体から答えやインスピレーションを得るのを助け、創造性とコラボレーションをサポートし、目の前のタスクに集中できるようにします。

Copilot has been built into nearly every aspect of the Windows operating system and can not only answer your questions but can also control different aspects of your Windows environment.

CopilotはWindowsオペレーティングシステムのほぼすべての側面に組み込まれており、質問に答えるだけでなく、Windows環境のさまざまな側面を制御することもできる。

I haven't had a chance to download and play around with Copilot yet, but I'm definitely going to do that soon.

私はまだCopilotをダウンロードして使いこなす機会がないが、近いうちにぜひ試してみたい。

Next, while not AI news, it's certainly futuristic.

次に、AIのニュースではないが、未来的であることは確かだ。

Elon Musk's SpaceX has won a big US Space Force contract with Star Shield.

イーロン・マスクのSpaceXは、Star Shieldと米宇宙軍の大型契約を獲得した。

SpaceX will provide customized satellite communications for the military under the company's new Star Shield program.

SpaceXは、同社の新しいStar Shieldプログラムのもと、カスタマイズされた衛星通信を軍に提供する。

According to a quote from CNBC, The SpaceX contract provides for Star Shield end-to-end service via the Starlink constellation, user terminals, ancillary equipment, network management, and other related services.

CNBCからの引用によると、SpaceXの契約は、Starlinkコンステレーション、ユーザー端末、補助装置、ネットワーク管理、およびその他の関連サービスを介してStar Shieldのエンドツーエンドのサービスを提供する。

Space Force spokesperson Lynn Stepanic said, Star Shield is a new line of business for SpaceX, which it just launched last year, and the Pentagon already purchases the company's rockets, so they already have an existing relationship.

宇宙軍の広報担当リン・ステパニック氏は、「スター・シールドはスペースX社にとって昨年立ち上げたばかりの新しい事業であり、国防総省はすでに同社のロケットを購入しているので、すでに既存の関係がある。

Not much more detail is available about this yet, but I'll keep an eye on it.

これについてはまだ詳細はほとんどわかりませんが、私が見守ります。

Also in government news, the CIA is building its own AI tool to rival China's capabilities.

また政府のニュースでは、CIAが中国の能力に対抗するために独自のAIツールを構築している。

According to decrypt.co, nameless for now, the tool will be trained on publicly available data and aims to help US spies quickly verify information.

decrypt.coによると、このツールは一般に入手可能なデータで訓練され、米国のスパイが情報を素早く確認するのを助けることを目的としている。

It doesn't have a launch date yet, and I wonder if they're going to be working with leading AI companies like OpenAI and Meta on this.

発売日はまだ決まっておらず、OpenAIやMetaのような大手AI企業と協力するつもりなのだろうか。

The CIA AI will be able to analyze large swaths of data to help keep the US safe.

CIAのAIは、アメリカの安全を守るために、大量のデータを分析できるようになるだろう。

Next, apparently the real technology to be worried about is not AI, but rather quantum computing.

次に、どうやら本当に心配すべきテクノロジーはAIではなく、量子コンピューティングのようだ。

Quantum computing not only promises to give us incredible computing power to improve our world, but also threatens to upend many other security technologies, such as encryption.

量子コンピューティングは、われわれの世界を改善する驚異的なコンピューティングパワーを約束してくれるだけでなく、暗号化など他の多くのセキュリティ技術を根底から覆す恐れがある。

Quantum computing doesn't operate like standard computers using ones and zeros, known as binary, but instead uses quantum bits or qubits that allow for calculating an unlimited number of possible outcomes.

量子コンピューティングは、2進数として知られる1と0を使う標準的なコンピューターのようには動作せず、その代わりに量子ビット(qubits)を使うことで、可能な結果を無制限に計算することができる。

This method has the potential to transform many industries, including logistics, healthcare, finance, cybersecurity, weather predictions, and more.

この方法は、物流、医療、金融、サイバーセキュリティ、気象予測など、多くの産業を変革する可能性を秘めている。

Leading tech companies are investing heavily in developing quantum computing, including Google and IBM.

大手ハイテク企業は、グーグルやIBMをはじめ、量子コンピューティングの開発に多額の投資を行っている。

But as Spider-Man's Uncle Ben said, With great power comes great responsibility.

しかし、スパイダーマンのベンおじさんが言ったように、大きな力には大きな責任が伴う。

Next, YouTube is launching a number of AI features, and I'm really excited about this being a YouTube creator myself.

次に、YouTubeは多くのAI機能をローンチする。私自身YouTubeクリエイターであるため、これには本当に興奮している。

Thanks to Billow Wal Sudu for putting together a summary of these AI features, including AI video with Dream Screen, which is a way to visually transport yourself anywhere by typing a prompt.

プロンプトを入力することで、自分自身を視覚的にどこにでも移動させる方法であるDream Screenを使ったAIビデオなど、これらのAI機能をまとめてくれたBillow Wal Suduに感謝する。

And this is going to be available in YouTube Shorts and generates fantastical backgrounds in both image and video form.

そして、これはYouTube Shortsで利用可能になる予定で、画像と動画の両方で幻想的な背景を生成する。

Also, a free editing app called YouTube Create, which is a mobile app that provides easy professional editing tools to craft high-quality videos in minutes, probably very similar to CapCut.

また、YouTube Createと呼ばれる無料の編集アプリは、高品質の動画を数分で作るための簡単なプロ仕様の編集ツールを提供するモバイルアプリで、おそらくCapCutによく似ている。

Personalized AI insights, which allows you to get tailored video ideas and outlines in YouTube Studio based on your channel and current trends.

パーソナライズされたAIインサイト。YouTube Studioで、あなたのチャンネルや現在のトレンドに基づいた動画のアイデアやアウトラインを得ることができる。

Auto-dubbing with a feature called Aloud, which automatically dubs and localizes your videos into other languages with one click.

Aloudと呼ばれる機能による自動吹き替えは、ワンクリックであなたの動画を自動的に他の言語に吹き替え、ローカライズします。

Assistive music search, which automatically finds the perfect free soundtrack for your video, and AI will recommend songs and beats that fit best into your music.

あなたの動画にぴったりの無料サウンドトラックを自動的に探し出し、AIがあなたの音楽に最も合う曲やビートを推薦してくれるアシスト音楽検索。

And I bet they're also going to include AI-generated music in that.

そして、AIが生成した音楽も含まれるに違いない。

So there's a number of features coming for YouTube creators, and I can't wait to try them out.

だから、YouTubeクリエイターのための機能がたくさん用意されている。

Now, for the AI video of the week, Tim Grman provided the suggestion this week, so thank you to Tim.

今週のAI動画は、Tim Grmanさんが提案してくれましたので、ありがとうございます。

In this video, we see a spectacular giant video during a concert show, showing a rapidly evolving skeleton guy.

この動画では、コンサート中に素晴らしい巨大な映像が見られ、急速に進化するスケルトンの男性が映し出されています。

The visuals are stunning, and I can't even imagine what it was like to actually be there, seeing it on a huge screen, all the people around you, music playing, and the incredible energy.

その映像は見事で、実際にその場にいて、巨大なスクリーンでその映像を見て、周りにいるすべての人々、流れている音楽、そして信じられないようなエネルギーがどんなものだったのか、想像すらできない。

Check out the video now.

今すぐビデオをチェックしてください。

A reflection of eternity, a further and beyond.

永遠を映し出す、さらにその先へ。

For our last story, Google is nearing the launch of Gemini, its direct competitor to GPT-4.

最後の話は、グーグルがGPT-4の直接のライバルであるGeminiのローンチを間近に控えていることだ。

And although OpenAI beat Google to launching multimodal features, it's rumored that Gemini will include multimodal features at launch.

そして、OpenAIはマルチモーダル機能のローンチでグーグルに先んじたが、Geminiはローンチ時にマルチモーダル機能を含むと噂されている。

Google is currently giving a small set of companies access to Gemini for testing purposes.

グーグルは現在、テスト目的で少数の企業にジェミニへのアクセスを提供している。

Gemini is a collection of AI models that will have access to the internet as well as all of your information, such as email, calendars, and docs.

ジェミニはAIモデルの集合体であり、インターネットだけでなく、電子メール、カレンダー、ドキュメントなどのあらゆる情報にアクセスできる。

It'll also be capable of writing code and generating images, all of the features that ChatGPT already supports.

また、ChatGPTがすでにサポートしているすべての機能である、コードを書いたり画像を生成したりすることもできる。

I've mentioned this before, but it seems like every tech company, including Google, is playing catch-up with OpenAI.

以前にも触れたことがあるが、グーグルを含むすべてのテック企業がOpenAIに追いついているように見える。

This must be especially frustrating for Google, given they published the original research paper that kickstarted this wave of AI technology.

グーグルにとっては特に悔しいことだろう。このAI技術の波を巻き起こしたオリジナルの研究論文を発表したのだから。

Attention is all you need.

注意を払うだけでいいのだ。

If you liked this video, please consider giving it a like and subscribe, and I'll see you in the next one.

もしこの動画が気に入ったら、いいねとチャンネル登録を考えていただけると嬉しいです。次の動画でお会いしましょう。

この記事が気に入ったらサポートをしてみませんか?