見出し画像

【AIニュース】英語解説を日本語で読む【2023年8月26日|@Matt Wolfe】

動画ではAIの最新動向が紹介されています。Midjourneyが「in-painting」機能を導入し、Ideogram AIはテキスト追加機能、Leonardo AIは「anime pastel dream」モデル、MicrosoftはMicrosoft PaintのAI組み込み、Metaは「seamless m4t」音声変換モデル、OpenAIは「seamless.meta demolab.com demo」及びGPT 3.5 turboのファインチューニング、11 Labsは11 multilingualのバージョン2をそれぞれリリースしました。ニューヨーク・タイムズはChatGPTに訴訟を起こしており、一方でNVIDIAのAIチップの需要は増加しています。ヨーロッパでは、メタ関連アプリにAIオフスイッチが導入予定です。MetaとHugging Faceはコーディングアシスタントを、AmazonはThursday Night FootballにAI機能を導入します。AIの医療への応用が進展し、MicrosoftとEpicは協力して進めています。障害の克服や医療の向上にAIの進歩が貢献しており、AIの技術進化とその可能性は広がっています。
公開日:2023年8月26日
※動画を再生してから読むのがオススメです。


There's actually been a ton of news in the AI world this week, and if you haven't been paying attention, you probably missed a lot of it.

今週、AIの世界では実際にたくさんのニュースがありましたが、注目していなかったら、それらの多くを見逃してしまったかもしれません。

It's especially been a big week for the AI art world, so let's dig in. This week, Midjourney rolled out their in-painting feature.

特にAIアートの世界では大きな週だったので、掘り下げてみよう。 今週、Midjourneyはインペインティング機能をリリースした。

I actually did an entire dedicated video around this new in-painting feature.

実は、私はこの新しいインペインティング機能に関する専用のビデオを作りました。

The video looks like this, but here's the real quick breakdown: When you generate and upscale a new image inside of Midjourney, you're going to get this new button that says vary region.

ビデオはこんな感じですが、簡単に説明するとこんな感じです: Midjourneyの中で新しい画像を生成してアップスケールすると、リージョンを変えるという新しいボタンが表示されます。

If you go to your Midjourney settings and make sure remix mode is on, you can actually steer what gets changed inside of the image.

Midjourneyの設定で、リミックスモードがオンになっていることを確認すれば、画像内部で変更される部分を実際に操作することができます。

So, if I click on vary region, I can select this guy's head like this and say long blonde hair.

そこで、various regionをクリックすると、この男の頭をこのように選択して、長いブロンドの髪にすることができる。

Click submit, and you can see everything about the image stayed the same, except now it generated an image with long blonde hair.

「送信」をクリックすると、画像についてのすべてが同じままで、ただ今は長い金髪の画像が生成されました。

And apparently, it seems to associate women with long blonde hair.

そしてどうやら、ブロンドロングヘアといえば女性を連想するようだ。

Here's another little use case example that I posted on Twitter, where I selected just the clothing of this person and I used the prompt Superman, I used the prompt The Joker, I used the prompt a flowery dress, a rock star wearing leather, and then I inpainted the eyes to add sunglasses by typing wearing sunglasses.

この人物の服装だけを選択し、プロンプトのスーパーマン、プロンプトのジョーカー、プロンプトの花柄のドレス、レザーを着たロックスター、そしてサングラスをかけていると入力してサングラスを追加するために目を塗りつぶした。

And that's what we got.

そして出来上がったのがこれだ。

I also created this animation using Runway ML's frame interpolation feature, where it switched between all of the different clothing.

Runway MLのフレーム補間機能を使って、私もこのアニメーションを作成しました。それにより、さまざまな衣服の間を切り替えました。

And at the very end of this video, I actually had the character change the expression on their face.

そして、このビデオの最後に、実際にキャラクターの表情を変えました。

And then somebody that you should be following on Twitter, Javi Lopez here, made a discovery that if you click vary and then select the entire image and leave the exact same prompt, you actually get a higher quality, more detailed image.

ツイッターでフォローしているハビ・ロペスが発見したのですが、"変化する "をクリックしてから画像全体を選択し、まったく同じプロンプトを残すと、より高画質で詳細な画像が得られるそうです。

And then my friend Ali Jules here, who I recently met at the Artificial Conference, actually confirmed this.

そして、最近人工会議で会った友人のアリ・ジュールズが、これを実際に確認した。

She said during the Midjourney office hours today, David, the founder of Midjourney, said that the in-painting uses a different system that a keen eye may notice it being slightly better.

彼女が言うには、今日のMidjourneyのオフィスアワーで、Midjourneyの創設者であるDavidが、インペインティングは異なるシステムを使用しているので、鋭い目を持つ人なら、その方がわずかに優れていることに気づくかもしれないと言っていた。

Speaking of Ali Jules, she shared her weekly Midjourney office hours recap with us, and here's some of the things that we can expect from Midjourney.

アリ・ジュールズといえば、毎週恒例のMidjourneyオフィスアワーのレポを披露してくれたが、ここではMidjourneyに期待できることをいくつか紹介しよう。

It sounds like a possibility that they may be shipping some more in-painting features, and it looks like they're making version 6 a priority with more controllability, more knowledge, better text understanding, more styles, more diversity, ability to generate text, and better resolution.

さらにインペインティングの機能が追加される可能性があるようで、バージョン6では、よりコントロールしやすく、より多くの知識、より良いテキスト理解、より多くのスタイル、より多様なテキスト生成機能、より良い解像度を優先しているようだ。

So, they're putting a lot of effort into this, but still no estimated release date.

つまり、彼らはこれに力を入れているわけだが、リリース予定日はまだ決まっていない。

It also sounds like they are prioritizing the website.

また、ウェブサイトを優先しているようだ。

They want to have a super high-quality user interface and user experience.

超高品質なユーザーインターフェイスとユーザーエクスペリエンスを求めている。

They're adding a bunch of features, but there's still no estimated release date on that either.

彼らは多くの機能を追加しているが、それについてもまだリリース予定日はない。

One thing that I found really interesting, and I think this would be absolutely awesome, is that they are working on 3D, and they're also working on video.

私が本当に興味深いと思ったことの一つは、彼らが3Dとビデオに取り組んでいることです。それは絶対に素晴らしいことだと思います。

Excited to see how those things play out.

それらがどうなるか楽しみだ。

But Midjourney in-painting isn't the only AI art news we got this week.

しかし、今週のAIアートのニュースはMidjourneyのインペインティングだけではない。

This week saw the release of Ideogram AI.

今週はIdeogram AIがリリースされた。

Ideogram AI was actually put together by a rockstar team of people from Google Brain, UC Berkeley, CMU, and the University of Toronto, including the people who worked on Imagen, Google's text-to-image model that we actually haven't had a chance to play with ourselves yet.

Ideogram AIは、Google Brain、カリフォルニア大学バークレー校、CMU、トロント大学から、Googleのテキストから画像への変換モデルであるImagenを開発した人々を含むロックスターチームによって開発された。

Now, probably the biggest standout feature of Ideogram AI is the ability to add text to your AI-generated images, and it does it better than any of the other platforms we've seen so far.

Ideogram AIの最も目立つ特徴は、AIが生成した画像にテキストを追加できる能力です。これまで見た他のプラットフォームよりも優れています。

Now, Ideogram is actually a platform I've had access to for a little while now, but I was sworn to secrecy until they actually made their announcement.

Ideogramは、実は少し前からアクセスできるようになっていたプラットフォームだが、実際に発表されるまでは秘密にしていた。

So, I'm excited to finally show off what this can do.

だから、ようやくこのプラットフォームでできることを披露できることに興奮している。

So, if I put something like a logo design with a wolf that has the words Matt Wolf on it and click generate, I actually get a couple fairly decent images.

それで、Matt Wolfと書かれた狼のロゴデザインのようなものを入れてgenerateをクリックすると、かなりまともな画像が2、3枚出てくる。

This one nailed it, and this one at least put my last name right, which is a pretty cool logo.

これには釘付けになったし、これには少なくとも僕の名字がちゃんと入っている。

Just skimming through some of the examples here, there's an image of Bigfoot with the words hike, an image with a Jack-o-Lantern that says spooky season, here's one that looks like a logo sticker that says Archer Air, here's one that says nature loves courage.

ざっと目を通しただけでも、ビッグフットの画像にhikeの文字、ジャック・オ・ランタンの画像にspooky seasonの文字、ロゴステッカーのような画像にArcher Airの文字、nature loves courageの文字などがある。

You can learn more over at ideogram.ai and play around with it, see what you can generate.

ideogram.aiで詳細を学び、それを使って遊んでみてください。何が生成できるか見てみてください。

Also, at AI art news this week, Leonardo AI added a new model to their platform called anime pastel dream.

また、今週のAIアート・ニュースでは、Leonardo AIが彼らのプラットフォームにアニメ・パステル・ドリームという新しいモデルを追加した。

To access the model, just log into the Leonardo app, and up at the top right now, under featured models, you can see anime pastel dream.

このモデルにアクセスするには、Leonardoアプリにログインし、一番上のfeatured modelsの下にあるanime pastel dreamをクリックします。

Click on the model, and you can see some of the really cool images that were generated with that model.

モデルをクリックすると、そのモデルで生成されたクールな画像を見ることができます。

Also, this week, it was announced that Microsoft wants to add AI into more of their tools, like Microsoft Paint.

また今週、マイクロソフトはマイクロソフト・ペイントのようなツールにAIを追加したいと発表しました。

This image is an internal mock-up from Microsoft of what that could look like.

この画像は、マイクロソフト社内で作成されたモックアップです。

Also, in AI art news, Scenario, a company that's known for helping you create AI-generated game assets, now has a Unity plugin.

また、AIアートのニュースでは、AI生成ゲームアセットの作成を支援することで知られるScenario社が、Unityプラグインを発表しました。

So now, you can generate your game assets with text prompts directly inside of the Unity platform if you're a game designer or developer.

これにより、ゲームデザイナーや開発者であれば、Unityプラットフォーム内で直接テキストプロンプトを使ったゲームアセットを生成できるようになります。

Now, finally, in AI art news, it's not all good news.

さて、最後にAIアートのニュースだが、良いニュースばかりではない。

Late last week, it was decided that AI-generated art cannot be copyrighted according to a U.S. federal judge.

先週末、米国の連邦判事によると、AIが生成したアートは著作権で保護されないという判断が下されました。

However, if you read more about the ruling, the work that was trying to be copyrighted in this case was generated with a creativity machine algorithm.

しかし、判決の詳細を読むと、このケースで著作権を認められようとしていた作品は、クリエイティビティ・マシンのアルゴリズムで生成されたものだった。

This wasn't a Midjourney-type image where a prompt was entered and some human touch was added to the image.

これは、プロンプトが入力され、画像に人間のタッチが加えられたMidjourneyタイプの画像ではなかった。

This was referring to a case where a machine just generated an image without any human touch other than the creation of the algorithm.

これは、アルゴリズムの作成以外に人間の手を加えることなく、ただ機械が画像を生成したケースを指している。

So, there are other AI image copyright cases that are still ongoing where the creator actually prompted the images and kept on creating new prompts over and over and over again until they got dialed in on the exact image they were looking for.

AIによる画像の著作権侵害は現在も続いていますが、そのようなケースでは、作成者が実際に画像にプロンプトを入力し、探している画像に正確にたどり着くまで、何度も何度も新しいプロンプトを作成し続けました。

So, there was a lot of human touch in those cases.

このようなケースでは、人間の手が多く加わっています。

But in the cases where a machine just generated an image without a prompt or a human touch, those can't be copyrighted.

しかし、プロンプトや人間の手を介さずに機械がただ画像を生成した場合、それらは著作権で保護されることはありません。

So, there's some nuances there with these copyright laws, but this isn't necessarily referring to an image that was generated with, like, Midjourney, Leonardo, Stable Diffusion, or something like that.

著作権法には微妙なニュアンスがありますが、MidjourneyやLeonardo、Stable Diffusionなどで生成された画像は必ずしも著作権対象にはなりません。

Alright, now let's talk about AI in your marketing.

さて、次はマーケティングにおけるAIについてです。

Whether you're a content creator like me, a business owner, or someone who just wants to get more reach online, it's important to keep up with the latest trends in marketing.

あなたが私のようなコンテンツクリエイターであれ、ビジネスオーナーであれ、あるいは単にオンラインでより多くのリーチを得たい人であれ、マーケティングの最新トレンドについていくことは重要だ。

And right now, everything is trending in the direction of AI.

そして今、すべてのトレンドはAIの方向に向かっている。

Not only is leveraging AI one of the best ways to get reach, it's also one of the most in-demand marketing skills that companies are looking for right now.

AIを活用することは、リーチを獲得する最良の方法のひとつであるだけでなく、企業が今最も求めているマーケティング・スキルのひとつでもあります。

So, for this video, I partnered with HubSpot to get another one of their free resources into your hands.

そこで今回のビデオでは、HubSpotと提携し、彼らの無料リソースの1つを皆さんにお届けします。

It's called AI Trends for Marketers in 2023: How AI is Changing Marketing and Driving Rapid Business Growth.

その名も「AI Trends for Marketers in 2023」: AIはどのようにマーケティングを変え、ビジネスの急成長を促すのか。

With this free report, you'll learn how leading marketers are using AI tools to create content 10 times faster, analyze data instantly, and increase ROI.

この無料レポートでは、一流のマーケターがどのようにAIツールを使ってコンテンツを10倍速く作成し、データを即座に分析し、ROIを高めているかを学ぶことができます。

You'll also get a competitive edge by learning about the latest AI marketing tech.

また、最新のAIマーケティング技術を学ぶことで、競争力を高めることができます。

Personally, I was especially interested in this section all about how you can leverage AI to repurpose your existing content as a content creator.

個人的には、コンテンツクリエイターとして既存のコンテンツを再利用するためにAIを活用する方法について書かれたこのセクションが特に興味深かった。

I want to make sure I'm reaching the maximum amount of eyeballs whenever I spend the time to create a new piece of content.

私は、時間をかけて新しいコンテンツを作るときはいつでも、最大限の眼球に届くようにしたい。

So, I really think you'll find this free resource super helpful as well.

だから、この無料のリソースもとても役立つと思います。

I put the link to this report down in the description.

このレポートへのリンクは、説明文の下の方に貼っておきます。

Thanks so much to HubSpot for sponsoring this video and providing you with this free resource.

このビデオのスポンサーであり、この無料リソースを提供してくれたHubSpotに心から感謝する。

Also, this week, YouTube announced that they are partnering with Universal Music Group to work on the overlap of AI and the music industry.

また今週、YouTubeはユニバーサルミュージックグループと提携し、AIと音楽業界のオーバーラップについて取り組むと発表した。

YouTube wants to embrace AI responsibly and they want to work with artists to figure out ethical and responsible ways to allow creators to use music but make sure that artists and record labels are compensated appropriately.

YouTubeは責任を持ってAIを取り入れたいと考えており、彼らはアーティストと協力して、クリエイターが音楽を使用できるようにしつつ、アーティストとレコード会社に適切な報酬が支払われるようにする倫理的で責任ある方法を考えたいと考えている。

Speaking of YouTube, this week they also announced that they are testing a new search feature which will allow you to hum a song and it will find the song based on you humming it.

YouTubeについて話すと、今週、彼らは新しい検索機能のテストを発表しました。それにより、あなたが歌をハミングすると、それに基づいてその曲を見つけることができます。

As of now, it looks like the new experiment is just going to be on Android devices, and it says users who have access to the experiment can toggle from YouTube voice search to the new song search feature and hum, sing, or record a song for three or more seconds.

今のところ、この新しい実験はアンドロイド端末だけで行われるようだ。実験にアクセスできるユーザーは、YouTubeの音声検索から新しい曲検索機能に切り替え、3秒以上鼻歌を歌ったり、歌ったり、録音したりすることができるという。

The platform then identifies the tune and directs the users to relevant YouTube videos featuring the searched song, whether that be the official music video, user-generated content, or shorts.

その後、プラットフォームが曲を特定し、公式ミュージックビデオ、ユーザー作成コンテンツ、ショートムービーなど、検索された曲をフィーチャーした関連YouTube動画にユーザーを誘導する。

This feature is built on a machine learning model that can match a person's hum to a song's fingerprint or signature melody.

この機能は、人の鼻歌を曲の指紋や特徴的なメロディにマッチさせることができる機械学習モデルに基づいて構築されている。

And while we're on the topic of using your voice, ElevenLabs rolled out a new version 2 of their 11 multilingual, which is a foundational AI speech model for nearly 30 languages.

そして、声を使うという話題のついでに、イレブンラボは、約30の言語に対応する基礎的なAI音声モデルである11マルチリンガルの新しいバージョン2を発表した。

If you have an ElevenLabs account and you log in, you should see under the settings a drop-down that allows you to select the model you'd like to use, and they now have 11 multilingual version 2.

イレブンラボのアカウントを持っていてログインすると、設定の下にドロップダウンメニューが表示され、使用したいモデルを選択することができます。

As of right now, it just does text-to-speech.

現時点では、テキストから音声に変換するだけです。

So, if you want it to speak in Indonesian, you need to type something in Indonesian.

つまり、インドネシア語で話したい場合は、インドネシア語で何かを入力する必要がある。

But it does say that voice conversion is coming soon, so I imagine we'll likely be able to enter text in our native language, have it translate that text, and then speak out that text for us in the language that we selected.

しかし、音声変換は近々可能になるとのことなので、おそらく母国語でテキストを入力し、そのテキストを翻訳し、選択した言語でテキストを話してくれるようになるのだろう。

But for right now, if you wanted to, you can always type it in English, take it to Google Translate, have it translate to whatever language you want it to speak in.

ただし、今のところ、英語で入力して、Google翻訳にかけて、話したい言語に翻訳することもできます。

For example, Japanese.

例えば、日本語。

Grab the new text, paste this into ElevenLabs, and have it generate that.

この新しいテキストをElevenLabsに貼り付けて、それを生成させます。

Now, I don't speak Japanese, so the output, I have no clue how well it's performing, honestly.

さて、私は日本語を話せないので、正直なところ、出力結果がどの程度なのか見当がつきません。

So, if you do understand Japanese, you can let me know if that made sense or not.

だから、もし日本語がわかるなら、意味があったかどうか教えてほしい。

Now, on that exact same day, Meta also rolled out their seamless M4T model, which allows you to speak something out or enter text.

さて、まったく同じ日に、MetaもシームレスなM4Tモデルを導入しました。これにより、何かを話したりテキストを入力したりすることができます。

And then, get an output of speech to speech translation, speech to text translation, text to speech translation, text to text translation, or automatic speech recognition.

そして、音声翻訳、音声からテキストへの翻訳、テキストから音声への翻訳、テキストからテキストへの翻訳、自動音声認識の出力を得ることができる。

And this seamless m4t model, if we scroll down here, is actually available on Hugging Face and GitHub.

このシームレスなm4tモデルは、ここをスクロールダウンすると、Hugging FaceやGitHubで実際に利用することができます。

So, if you know what you're doing, you can actually install this locally and run it on your own machine or run it in the cloud on Hugging Face.

つまり、もし自分が何をやっているのかわかっていれば、これをローカルにインストールして自分のマシンで実行することもできるし、Hugging Faceのクラウド上で実行することもできる。

However, they did make available a demo that anybody can use over at seamless.meta demolab.com/demo.

ただし、誰でも使えるデモをseamless.meta demolab.com/demoで公開している。

And you can speak anything in English.

何でも英語で話すことができる。

So, for example, Hello, my name is Matt Wolf.

例えば、こんにちは、私の名前はマット・ウルフです。

I really think you should subscribe to my YouTube channel, click the like button, and press that Bell.

私のYouTubeチャンネルに登録して、「いいね!」ボタンをクリックして、ベルを押してください。

Now, I can actually select any language that I want here.

ここで、好きな言語を選択することができます。

For example, Spanish.

例えば、スペイン語。

Click translate.

翻訳をクリックする。

It actually did a text translation right here, as well as a speech translation.

実際に、ここでテキストの翻訳を行い、音声の翻訳も行いました。

Hola, my name is...

こんにちは、私の名前は...

Now, my Spanish isn't great, but I think it got pretty close.

私のスペイン語はあまり上手ではありませんが、かなり近いと思います。

Unlike ElevenLabs, this isn't actually reading it back in my voice.

イレブンラボと違って、これは実際に私の声で読み上げているわけではありません。

OpenAI had a little bit of news this week as well.

OpenAIにも今週ちょっとしたニュースがあった。

Users can now fine-tune GPT-3.5 turbo for their own use cases.

ユーザーはGPT-3.5ターボを自分のユースケースに合わせて微調整できるようになった。

If you're not familiar with fine-tuning, it's basically where you dial in the model to work exactly for your use case.

ファインチューニングをご存じない方のために説明しておくと、基本的には、自分のユースケースにぴったり合うようにモデルを調整することです。

So, for example, improve steerability.

例えば、操縦性を向上させる。

It allows businesses to make the model follow instructions better.

それにより、企業はモデルがより良く指示に従うことができます。

It improves the model's ability to consistently format responses.

また、一貫性のある回答フォーマットへの対応能力を向上させることもできます。

And you can actually create your own custom tone with how you like the model to respond.

また、モデルにどのような反応をさせたいかによって、独自のカスタムトーンを作成することもできます。

Now, one thing to keep in mind about fine-tuning, though, is it's a lot more expensive than just using the base model without fine-tuning.

しかし、微調整について注意しなければならないのは、微調整なしでベースモデルを使用するよりもはるかにコストがかかるということだ。

And Rachel Woods here on Twitter made some excellent points about how what most people would want to do with fine-tuning, you can actually just do with prompting.

レイチェル・ウッズはツイッターで、微調整でほとんどの人がやりたいと思うことが、実はプロンプトでできることだという素晴らしい指摘をしている。

She says, LLMs are remarkably good at picking up tasks and behaviors from just a good prompt.

LLMは、適切なプロンプトからタスクや行動をピックアップするのが驚くほどうまい。

She says, One way to think about this, if it would take someone a few weeks doing a task to master it, instead of being able to read training materials and get the picture, this may be a use case for fine-tuning.

このことを考えるひとつの方法として、あるタスクをマスターするのに数週間かかるような場合、トレーニング資料を読んでイメージをつかむのではなく、ファインチューニングのユースケースになるかもしれない、と彼女は言う。

She says, If you're wondering where the heck to invest in fine-tuning, my answer at the moment for most businesses is still make sure you can't do it with prompts.

ファインチューニングのために一体どこに投資すればいいのか悩んでいるのであれば、現時点での私の答えは、ほとんどのビジネスにおいて、プロンプトでできないことを確認することです。

And to be honest, there's still not a whole lot you can't do with prompts that requires fine-tuning.

正直なところ、微調整が必要なプロンプトでできないことはまだあまりありません。

Speaking of OpenAI, we recently talked about how the New York Times is suing ChatGPT for training on their data.

OpenAIといえば、ニューヨーク・タイムズ紙がChatGPTのデータを使ってトレーニングしているとして、ChatGPTを訴えているという話を最近しました。

If they do sue them and they win, the result could be devastating, including the destruction of ChatGPT's dataset and fines of up to $150,000 per infringing piece of content.

もし彼らがChatGPTを訴え、勝訴した場合、ChatGPTのデータセットの破壊や、侵害コンテンツ1つにつき最高15万ドルの罰金など、壊滅的な結果になる可能性がある。

Now, considering how much data ChatGPT was originally trained on, it's hard to believe that if this was true and it actually played out in this way, that ChatGPT and OpenAI would actually survive it.

さて、ChatGPTが元々どれだけのデータで訓練されていたかを考えると、もしこれが真実で、実際にこのような形で展開されたとしても、ChatGPTとOpenAIが実際に生き残るとは考えにくい。

Now, do I actually think it's going to play out this way?

さて、実際にこのような展開になると思いますか?

Probably not.

おそらくないでしょう。

I think some sort of more reasonable resolution will come about.

何らかのより合理的な解決策が出てくると思います。

Headlines like Potential New York Times lawsuit could force OpenAI to wipe ChatGPT and start over is a headline that'll get clicks.

Potential New York Timesの訴訟により、OpenAIはChatGPTを消去し、やり直すことを余儀なくされる可能性がある、というような見出しは、クリックされるでしょう。

Staying in the negative world of AI for just a moment here, this article was released this week about the ugly numbers from Microsoft and ChatGPT reveal that AI demand is already shrinking.

ここでちょっとだけAIのネガティブな世界に踏み込んでみると、この記事は今週発表されたもので、マイクロソフトとChatGPTの醜い数字が、AIの需要がすでに縮小していることを明らかにしている。

And to be fair, there was a bit of a hype cycle where ChatGPT and all the AI hype was just at a maximum, and a lot of that hype has died down.

そして、公平を期すために、ChatGPTとすべてのAIの誇大宣伝がちょうど最大であった少し誇大宣伝のサイクルがありました。

Some of it has been because of summer and schools being out, as well as no real new massive advancement like we saw with GPT-4 or like we saw with a new version of Midjourney or new versions of Stable Diffusion.

GPT-4やMidjourneyの新バージョン、Stable Diffusionの新バージョンのような新しい大規模な進歩がなかっただけでなく、夏休みや学校が休みになったせいもある。

The news has sort of been more incremental and not insanely groundbreaking lately, which is why I think some of the hype has died down a little bit.

最近のニュースは、あまり画期的ではなく、少し地味です。だから、ハイプが少し落ち着いたと思います。

But this article will lead you to believe that AI is only good for scamming, spamming, and jamming.

しかし、この記事を読むと、AIは詐欺、スパム、妨害にしか使えないと思い込んでしまうだろう。

I think this article is a little over the top because they definitely cherry-picked a whole bunch of articles that show some of the negatives around AI without pulling articles about how AI has massively improved lives, improved advancements in healthcare, increased productivity among workers, and all sorts of other benefits that have been coming out in the AI world.

というのも、AIがいかに人々の生活を大きく向上させたか、ヘルスケアの進歩を改善したか、労働者の生産性を向上させたか、その他AIの世界で出てきている様々な利点についての記事を抜粋することなく、AIにまつわる否定的な部分を示す記事ばかりを抜き出しているからだ。

But again, doom and gloom sells just as well as excitement.

しかし繰り返すが、悲観論は興奮論と同じように売れる。

And if you really, really think that AI is going to just die off because a handful of articles here say so, let's take a look at NVIDIA's earnings.

そして、もしあなたが本当に、ここにある一握りの記事がそう言っているからという理由で、AIがただ滅びていくだけだと思っているのなら、エヌビディアの業績を見てみよう。

And this article from The Verge that says NVIDIA just made $6 billion in pure profit over the AI boom.

The Vergeの記事によると、エヌビディアはAIブームで60億ドルの利益を上げたという。

And that was on a staggering $13.5 billion in revenue.

そしてそれは、135億ドルという驚異的な収益によるものだ。

This $13.5 billion is from its Q2 2024 earnings.

この135億ドルというのは、2024年第2四半期の業績によるものだ。

And because of the unprecedented demand for its generative AI chips, and they're forecasting $16 billion in revenue next quarter, again due to AI.

そして、同社のジェネレーティブAIチップに対する前例のない需要のため、彼らはまたAIに起因する来四半期の収益160億ドルを予測している。

So yes, there's a handful of lawsuits.

そう、訴訟がいくつかある。

Yes, OpenAI might have a few struggles ahead of them.

そう、オープンAIにはいくつかの苦難が待ち受けているかもしれない。

But AI isn't going anywhere.

しかし、AIはどこにも行かない。

And the companies that are finding new ways to leverage AI, they're still investing in it.

AIを活用する新しい方法を見つけている企業は、まだAIに投資している。

They're still buying up these chips.

まだチップを買い占めている。

And they're still going in heavier and heavier.

そして、ますます重くなっている。

The hype in the mainstream awareness may die down a little bit.

メインストリームにおける誇大宣伝は少し落ち着くかもしれない。

But the technological advances and all of the use cases for all of this AI technology, it's only going on an upward trend.

しかし、このAI技術のすべての技術的な進歩とユースケースにおいて、上向きの傾向しかありません。

If you're in Europe, you may be getting an AI off switch on meta-related apps like Facebook and Instagram.

もしあなたがヨーロッパにいるのなら、フェイスブックやインスタグラムのようなメタ関連のアプリでAIのオフスイッチが入るかもしれない。

The European Union has what's called the Digital Services Act.

欧州連合(EU)にはデジタルサービス法と呼ばれるものがある。

And as part of that act, it requires larger platforms and search engines to provide users in the region with the ability to switch off AI-driven personalization.

この法律の一環として、大規模なプラットフォームや検索エンジンは、AIによるパーソナライズをオフにする機能をこの地域のユーザーに提供することが義務付けられている。

And as you and I likely already know, pretty much all the algorithms from all the social media companies and all of the search engines use AI to try to present you with better results.

皆さんも私もすでにご存知のように、ソーシャルメディア企業や検索エンジンのアルゴリズムは、AIを使ってより良い結果を表示しようとしています。

In my opinion, this is going to dramatically lower the user experience on these platforms.

私の意見では、これはこれらのプラットフォームでのユーザーエクスペリエンスを劇的に低下させるだろう。

I think a lot of these algorithms do a really good job of putting content in front of me that I want to see.

これらのアルゴリズムの多くは、私が見たいと思うコンテンツを私の前に置くという、本当に良い仕事をしていると思う。

And if you take that away, it'll probably make for a less enjoyable user experience.

もしそれを取り上げてしまったら、おそらくユーザー体験はより楽しいものではなくなってしまうだろう。

But hey, you'll probably also break your addiction to whatever those platforms are as well, because the AI is also designed to keep you coming back and keep you using the platforms.

でもね、AIはあなたが戻ってきてプラットフォームを使い続けるように設計されているので、おそらくそれらのプラットフォームへの中毒も治るでしょう。

Speaking of Meta, if you're a coder, Meta just introduced CodeLama.

Metaといえば、もしあなたがコーダーなら、MetaはCodeLamaを発表したばかりだ。

Now, if you remember, Meta released the open-source LAMA large language model fairly recently.

Metaがオープンソースの大規模言語モデルLAMAをリリースしたのは、ごく最近のことだ。

Well, now they have a model that is designed specifically for coding.

そして今回、コーディングに特化したモデルが登場した。

CodeLama is free for research and commercial use.

CodeLamaは研究・商用利用ともに無料だ。

It's built on top of LAMA 2, and you can access it and download it and install it however you want, locally or in the cloud, because they've got it available on their GitHub repository.

LAMA 2の上に構築されており、GitHubリポジトリで公開されているので、アクセスしてダウンロードし、ローカルでもクラウドでも好きなようにインストールすることができる。

Right now, this week, Hugging Face also introduced a coding assistant called SafeCoder.

今週、Hugging FaceはSafeCoderというコーディング・アシスタントも発表した。

Now, they say SafeCoder is not a model, but a complete end-to-end commercial solution.

SafeCoderはモデルではなく、完全なエンドツーエンドの商用ソリューションだという。

It's built with security and privacy, and it's designed for self-hosting by the customer on their own infrastructure, similar to what we just saw with CodeLama.

SafeCoderは、セキュリティーとプライバシーのために作られたもので、CodeLamaと同じように、顧客自身のインフラでセルフ・ホスティングできるように設計されている。

Now, SafeCoder is actually designed to be trained on your specific use case for the coding model.

SafeCoderは、コーディング・モデルの特定のユースケースに合わせてトレーニングされるように設計されています。

So, it's not like LAMA 2, where it's a one-size-fits-all coding solution.

つまり、LAMA 2のような画一的なコーディング・ソリューションではありません。

This one, you actually work with Hugging Face to kind of fine-tune it to your exact needs.

これは、実際にハギング・フェイスと協力して、あなたの正確なニーズに合わせて微調整します。

And speaking of Hugging Face, this week, Hugging Face announced that they did a Series D raise at a $4.5 billion valuation.

ハギング・フェイスといえば、今週ハギング・フェイスは、45億ドルの評価額でシリーズDの資金調達を行ったと発表した。

Some of the new investors include Salesforce, Google, Amazon, NVIDIA, AMD, Intel, Qualcomm, IBM, and Sound Ventures.

新たな投資家には、セールスフォース、グーグル、アマゾン、エヌビディア、AMD、インテル、クアルコム、IBM、サウンド・ベンチャーズが含まれる。

Now, if that's not a rockstar set of investors to have behind you, I don't know what is.

これがロックスターのような投資家たちでないとしたら、何がそうなのかわからない。

Here's some fun news that came out this week.

今週発表された楽しいニュースをいくつか紹介しよう。

Amazon's bringing new AI-driven features to Thursday Night Football.

アマゾンが木曜日のナイト・フットボールにAIを活用した新機能を導入するというのだ。

They're actually going to start putting AI-generated stats and details about the game that you're watching on the screen while you're watching the game.

実際に、AIが生成した統計や観戦している試合に関する詳細を、試合観戦中に画面に表示するようになるそうだ。

Now, when it comes to AI, I think one of the next big revolutions we're going to see in the AI world is advancements in AI with healthcare.

さて、AIに関して言えば、AIの世界で私たちが目にすることになる次の大きな革命のひとつは、ヘルスケアにおけるAIの進歩だと思います。

And we've already seen so many amazing pieces of news about how AI is advancing the healthcare space.

私たちはすでに、AIがヘルスケアの分野でどのような進歩を遂げるかについて、多くの驚くべきニュースを見てきました。

As far as the mainstream consciousness is concerned, I really think that's where we're going to see the next big boom and hype cycle around AI.

メインストリームの意識に関する限り、AIにまつわる次の大きなブームと誇大広告のサイクルを目にすることになると思います。

And this week, Microsoft and Epic expanded their AI collaboration to accelerate generative AI's impact in healthcare.

そして今週、マイクロソフトとEpicは、ヘルスケアにおけるジェネレーティブAIのインパクトを加速させるために、AIの協力関係を拡大した。

They're doing things like enhancing clinician productivity with note summarization, enhancing productivity with embedded ambient clinical documentation, driving administrative efficiencies through reduction in manual labor-intensive processes, and advancing medicine for better patient outcomes.

彼らは、ノートの要約による臨床医の生産性の向上、埋め込み型アンビエント臨床文書による生産性の向上、手作業に集約されるプロセスの削減による管理効率の向上、より良い患者転帰のための医療の進歩などを行っている。

Speaking of which, check out this news article this week.

そういえば、今週はこんなニュースがあった。

A novel brain implant helped a paralyzed woman speak using a digital avatar.

新しい脳インプラントが、デジタルアバターを使って麻痺した女性の会話を助けた。

Researchers developed an implantable AI-powered device that, for the first time, translates brain signals into modulated speech and facial expressions.

研究者たちは、脳の信号を変調された音声と表情に変換する、初めての埋め込み型AI搭載デバイスを開発しました。

As a result, a woman who lost the ability to speak due to a stroke was able to speak and convey emotion using a talking digital avatar.

その結果、脳卒中で話す能力を失った女性が、しゃべるデジタルアバターを使って話し、感情を伝えることができるようになった。

And as AI advances, I just think we're going to see more and more of this type of thing in the healthcare world, where disabilities are going to be overcome, diseases are going to be overcome, doctors and clinicians are going to be more productive, and actually free up their time to work on the things that really matter to them personally.

AIが進歩するにつれて、ヘルスケアの世界ではこのようなことがますます増えていくと思います。障害が克服され、病気が克服され、医師や臨床医がより生産的になり、実際に個人的に本当に重要なことに取り組む時間を確保できるようになるのです。

I'm really, really excited about seeing AI and the advancements in the healthcare world, as much as I am in the worlds of visual effects and art and speech recognition and all of that kind of stuff.

私はAIと医療の世界の進歩に本当に本当に興奮しています。ビジュアルエフェクトやアート、音声認識などの世界にも同じくらいです。

AI and healthcare, I think, is going to be that next big revolution that everybody gets excited about, and I'm totally here for it.

AIと医療は、私は次の大きな革命になると思います。みんなが興奮するでしょうし、私も完全にそれに参加します。

I'm so excited about that.

私はそのことにとても興奮している。

And that's what I got for you today.

ということで、今日はこの辺で。

Thank you so much for tuning in to this video.

このビデオにご視聴いただき、本当にありがとうございました。

I really, really appreciate you.

本当に、本当にありがとうございました。

There's one last quick thing I want to shout out.

最後に1つだけ、簡単に言っておきたいことがあります。

I do have a Discord community.

私はDiscordコミュニティを持っています。

We just passed 10,000 members, and we're actually running some really, really cool contests inside of the Discord community.

ちょうど1万人を超えたところで、Discordコミュニティの中で、本当に本当に素晴らしいコンテストを開催しています。

You can find it over at futuretools.io/discord.

futuretools.io/discordで見つけることができます。

That'll redirect you right into the community, and you can enter some of our cool AI art competitions that we've got going on right now, where you can win cash and prizes by submitting art and getting voted on by the community.

コミュニティへリダイレクトされ、現在開催中のクールなAIアートコンテストに参加することができ、アートを投稿してコミュニティの投票に参加すると賞金や賞品を獲得できます。

So head on over to the Discord and check that out.

Discordにアクセスして、チェックしてみてください。

And if you haven't already, also check out the Future Tools website, where I curate all the latest cool tools that I come across, and I keep you in the loop with all the latest AI news on a daily basis.

まだの方は、Future Toolsのウェブサイトもチェックしてください。ここでは、私が出会った最新のクールなツールをキュレーションし、最新のAIニュースを毎日お届けしています。

You can find it over at futuretools.io.

futuretools.ioでご覧いただけます。

Once again, thank you so much for tuning in.

改めて、ご視聴ありがとうございました。

I really, really appreciate you.

本当に、本当にありがとうございました。

And thanks again to HubSpot for sponsoring this video.

そして、このビデオをスポンサーしてくれたHubSpotに改めて感謝します。

You guys rock.

君たちは素晴らしい。

Appreciate you.

ありがとう。

See you in the next one.

また次のビデオでお会いしましょう。

Bye.

さようなら。

Thank you.

ありがとう。

この記事が気に入ったらサポートをしてみませんか?