見出し画像

【マット・ウルフのAIニュース】英語解説を日本語で読む【2023年10月28日|@Matt Wolfe】

この動画ではTime Magazineが2023年のベストイノベーションを発表し、12種類のAI関連製品がリストアップされていることが紹介されています。一部の製品がリストに漏れているとの指摘や、特定の製品の優越性についての意見が述べられています。Time Magazineのベストイノベーションにはまだあまり知られていないHumane AI pinも含まれており、Midjourneyの新バージョン5やStable Audioの性能に関する意見が取り上げられています。さらに、Google、OpenAI、Microsoftなどの企業がAI関連の新しいツールや安全性に関するアップデートを発表しており、イギリスの首相がAI安全研究所の設立を提案しています。また、AI技術を活用した様々な新しいサービスや機能、AIの将来的なリスクについての議論も触れられています。
公開日:2023年10月28日
※動画を再生してから読むのがオススメです。


It's been an interesting week in the AI world, and I don't want to waste your time, so let's just get right to it.

AIの世界では興味深い1週間だった。時間を無駄にしたくないので、さっそく本題に入ろう。

Starting with the fact that Time Magazine released their best inventions of 2023, and in it, they had a whole section on AI.

Time Magazineが2023年のベスト発明を発表したことから始めましょう。その中にはAIに関するセクションがありました。

Among the AI tools they listed 12 different products: Adobe's generative Phill gp4, Runway Gen 2, feature print Dr. Drone, meta seamless m4t, soit VC alert, California and calfire AI Wildfire detector, stable audio, Trail guard AI, DALL·E 3, Project Gutenberg audio, shake, and Humane AI pin.

AIツールの中には12種類の製品が挙げられている: AdobeのジェネレーティブPhill gp4、Runway Gen 2、フィーチャープリントDr. Drone、meta seamless m4t、soit VC alert、California and calfire AI Wildfire detector、stable audio、Trail guard AI、DALL-E 3、Project Gutenberg audio、shake、Humane AI pin。

While I agree with most of these and think they should be on there, there are definitely some snubbed products like maybe Midjourney version 5.

私はこれらのほとんどに同意し、これらの製品はここに掲載されるべきだと思うが、Midjourneyバージョン5のように、いくつか無視されている製品があるのは確かだ。

I mean, they listed DALL·E 3, but Midjourney is way better at making realistic images, and it's a lot less censored than DALL·E 3.

つまり、彼らはDALL-E 3をリストアップしたが、Midjourneyの方がリアルな映像を作る点ではるかに優れており、DALL-E 3よりも検閲が少ない。

They also included stable audio, which, to me, is weird because I didn't find the outputs of stable audio that great.

彼らはまた、安定したオーディオも含まれていますが、私にとっては、安定したオーディオの出力はあまり素晴らしくなかったです。

But then you have tools likeo, which did a really good job of making AI music, and Google's music LLM is also much better than stable audio's output.

しかし、AI音楽を作るのに本当に良い仕事をしたisoのようなツールもあるし、Googleの音楽LLMもstable audioの出力よりずっと良い。

Soit's SVC is definitely good if you've heard like the AI Drake song or the AI Kanye songs or any of those songs that went viral.

SoitのSVCは、AIドレイクの曲やAIカニエの曲など、流行した曲を聴いたことがある人なら間違いなく良いものだ。

They most likely used sovit SVC behind the scenes to actually get that singing voice to sound like that person.

彼らは、その歌声を実際にその人のように聞こえるようにするために、裏でsovit SVCを使っている可能性が高い。

However, it's a very convoluted difficult process, so that's also surprising.

しかし、それは非常に複雑で難しいプロセスなので、それも驚きだ。

And the biggest shock on here is the Humane AI pin, which, yes, we got a preview of it at a TED Talk, and there was also some like runway show where people were wearing it, but most of the world hasn't seen it yet.

そして、ここでの最大の衝撃は、Humane AIのピンバッジです。TEDトークでそのプレビューがありましたし、ランウェイショーのようなもので、人々がそれを身に着けていましたが、世界のほとんどはまだそれを見ていません。

And if you really want to know how biased Time is, check this out.

タイム誌の偏向ぶりを知りたければ、これを見てほしい。

Let's click into the Humane AI pin.

Humane AIのピンをクリックしてみよう。

Interesting investors in Humane include Time co-chairs and owners Mark and Lynn benof.

Humaneへの興味深い出資者には、Timeの共同会長でオーナーのマークとリン・ベノフがいる。

Hat tip to Nick St Pierre on Twitter for actually pointing that out to me.

このことを指摘してくれたTwitterのニック・サン・ピエールに敬意を表したい。

Also, the biggest clear omission is obviously Future tools website.

また、明らかな最大の欠落は、明らかにFuture toolsのウェブサイトだ。

I mean, come on.

つまり、勘弁してくれということだ。

Also, this week, Midjourney rolled out the beta version of their new long-awaited website.

また今週、ミッド・ジャーニーは待望の新ウェブサイトのベータ版を公開した。

Now, while we can't actually generate images on the new website yet, Midjourney claims that feature should be available probably next month.

新しいウェブサイトではまだ画像を生成することはできないが、Midjourneyはその機能はおそらく来月には利用可能になるはずだと主張している。

But Midjourney does sometimes have a habit of underestimating when something is actually going to go live.

しかし、Midjourneyは時々、何かが実際に稼動する時期を過小評価する癖がある。

However, the website they do have is actually really cool.

しかし、彼らのウェブサイトは実にクールだ。

The search functionality up here is actually lightning fast.

ここでの検索機能は実際、電光石火の速さだ。

If I click search Halloween and hit enter, look how quickly it pulled up images that other people have generated related to Halloween.

ハロウィンの検索をクリックしてエンターキーを押すと、他の人が作成したハロウィンに関連する画像があっという間に出てくる。

That was almost instant.

それはほぼ瞬時でした。

You might think I sped up the video, but I didn't.

動画を早めたと思うかもしれないが、そんなことはしていない。

And if I look into my images, you can see I have a zoomed-out view of all of the images I've generated, so I can quickly hone in on the exact image I'm looking for.

また、自分の画像を見ると、自分が生成したすべての画像が拡大表示されているので、探している画像を素早く正確に絞り込むことができる。

And the search works just as well in this area.

検索はこのエリアでも同様に機能する。

So if I type robot, you can see all the images I created that had the word robot somewhere in the prompt.

robotと入力すると、プロンプトのどこかにrobotという単語が含まれている、私が作成したすべての画像を見ることができます。

You can also click on a specific image and press the numbers 1 through 4 to rate it, 4 being the highest rating.

また、特定の画像をクリックし、1から4までの数字を押して評価することもできる。

So if I press 4, you can see down in the bottom right, it just gave it the hearty eye emoji.

だから、もし4を押すと、右下に見えるように、元気な目の絵文字が表示されます。

And when I go back to my search, I can actually filter it down to just the ones that I rated a 4, and you can see all of the images that I've given that high rating to.

そして検索に戻ると、実際に4と評価したものだけに絞り込むことができ、その高評価をつけた画像をすべて見ることができます。

So it's another way to sort and filter all of the images that you've generated.

つまり、自分が作成したすべての画像を並べ替えたり、フィルタリングしたりする別の方法なのです。

But quite honestly, we're all just waiting for that generation inside the website so we get the heck out of Discord.

しかし、正直なところ、私たちは皆、Discordから抜け出すために、ウェブサイト内での生成を待っているだけなのだ。

This week, if you use Shutterstock, they actually integrated a feature that allows you to edit images using AI, including Magic Brush, creating variations, expanding images, smart resizing, background removing, and an AI image generator, which was actually launched earlier, but now you can hone in and get the exact image you're looking for.

今週、Shutterstockを使用している場合、AIを使用して画像を編集する機能が統合されました。マジックブラシ、バリエーションの作成、画像の拡大、スマートリサイズ、背景の除去、AI画像生成などが可能です。AI画像生成は以前にも発表されましたが、今ではより具体的なイメージを獲得できます。

In fact, on their website, it says, Craft Picture Perfect content with a palette of creative AI features to design and edit any Shutterstock image generated or stock.

実際、同社のウェブサイトには、「クリエイティブなAI機能を使って、ピクチャー・パーフェクトなコンテンツを作成し、生成されたシャッターストック画像やストック画像をデザイン・編集できます。

So if you find a stock image that you really like but it's missing just one little touch, you can do some sort of generative fill in it or remove the background or remove an element of it.

そのため、気に入ったストック画像を見つけたものの、ほんの少しタッチが足りない場合、ジェネレーティブな塗りつぶしや背景の除去、要素の削除などを行うことができる。

Although, if I'm totally honest, I really don't understand why people wouldn't just go generate the exact image they're looking for and then use generative fill or one of the existing inpainting tools to get the exact image they're looking for.

でも、正直に言うと、自分が探している画像を正確に生成して、ジェネレーティブフィルや既存のインペイントツールを使って、自分が探している画像を正確に作成しない人の気が知れない。

Amazon's getting into the AI image generation game as well.

アマゾンもAI画像生成ゲームに参入している。

They rolled out an AI-powered image generation tool to help advertisers deliver a better ad experience for customers.

広告主が顧客により良い広告体験を提供できるよう、AIを搭載した画像生成ツールを展開した。

So Amazon sellers that are advertising their products can now take a generic image and have AI apply a specific background to it to make the ads for their products stand out a little bit better and draw people's attention to them.

そのため、自社製品の広告を出すアマゾンの販売者は、一般的な画像をAIに特定の背景を適用させることで、自社製品の広告を少しでも目立たせ、人々の注意を引くことができるようになった。

But as AI images become more prolific, companies like Google are trying to help people better detect what's AI and what's not.

しかし、AI画像がより多く使われるようになるにつれ、Googleのような企業は、何がAIで何がそうでないかを人々がよりよく見分けられるようにしようとしている。

This week, Google announced tools to help users fact-check images.

今週、Googleはユーザーが画像をファクトチェックするためのツールを発表した。

Google is going to allow people to view an image's history, metadata, and the context users used it with on different sites.

Googleは、画像の履歴、メタデータ、ユーザーが別のサイトで使用した文脈を閲覧できるようにする予定だ。

So Google announced an about this image feature so that users can understand when the image was first seen by Google's search.

Googleは、この画像について、その画像がGoogleの検索で最初に表示されたのがいつかをユーザーが理解できるようにする機能を発表した。

It's also going to help people understand how people describe the image on the sites to help debunk any false claims.

また、ユーザーがサイト上で画像をどのように説明しているかを理解することで、誤った主張を否定するのにも役立つだろう。

So I was going to look at sites where these images appear and give contextual information about what those websites said about the image.

そのため、私はこれらの画像が掲載されているサイトを調べ、それらのサイトが画像について何を述べているかについての文脈情報を提供するつもりでした。

Also, if an image was generated with one of Google's AI generators, the company said that marks all images created by Google AI as well.

また、画像がGoogleのAIジェネレーターの1つで生成された場合、GoogleのAIによって作成されたすべての画像もマークされるという。

So if I go to Google Images, I search for an image of a wolf here, let's click on this one.

Google Imagesでオオカミの画像を検索し、この画像をクリックしてみよう。

If I click these three dots up here, we've got this about this image button, and this image is at least 5 years old, so we know it's probably not AI-generated.

この3つの点をクリックすると、「この画像について」ボタンが表示されます。この画像は少なくとも5年前のものなので、おそらくAIが作成したものではないことがわかります。

And we can see the web results of where this image appeared to get better context around what was actually said about this image.

また、この画像について実際に何が語られたかを知るために、この画像が掲載されたウェブ上の結果を見ることもできる。

But of course, artists still want to protect themselves from their images being trained into AI models.

しかしもちろん、アーティストたちは自分の画像がAIモデルに学習されないように自分たちを守りたいのだ。

So also this week, we saw a new tool rolled out called Nightshade.

そこで今週も、Nightshadeと呼ばれる新しいツールが発表された。

This is a tool that messes up training data in ways that can cause serious damage to image-generating AI models.

これは、画像生成AIモデルに深刻なダメージを与える可能性のある方法で、トレーニングデータを混乱させるツールだ。

The new tool lets artists add invisible changes to the pixels in their art before they upload it online so that if it's scraped into an AI training set, it can cause the resulting model to break in chaotic and unpredictable ways.

この新しいツールは、アーティストがオンラインにアップロードする前に、自分のアート内のピクセルに目に見えない変更を加えることができるため、それがAIのトレーニングセットにスクレイピングされた場合、結果として生成されるモデルが混沌とした予測不可能な方法で壊れてしまう可能性がある。

Here's some examples of what a clean model looks like and with poison samples within that model.

以下は、クリーンなモデルがどのように見えるか、またそのモデル内の毒サンプルについての例である。

So here's what a dog looks like with stable diffusion XL.

安定した拡散XLを持つ犬はどのように見えるか。

Here's what it will start to generate if there's 50 poison samples in there, 100 poison samples, 300 poison samples.

この中に50個の毒サンプル、100個の毒サンプル、300個の毒サンプルがあると、このような結果が生成されます。

And you can see how it pretty much destroys what these images look like and starts to shift them to completely wrong images.

そして、これらの画像がどのように破壊され、完全に間違った画像にシフトし始めるかがわかります。

However, stuff like this, I think, is also going to be a perpetual cat and mouse game.

しかし、このようなことは、永遠の猫とネズミのゲームでもあると思う。

I think the people that are training the models are most likely going to figure out ways to circumvent the poisoning of the models as well.

モデルの訓練を行っている人々は、おそらくモデルの汚染を回避する方法を見つけるでしょう。

But I also believe that there's a constant push towards opt-in only, so future models will likely be more and more just trained on images that permission was given for those images to be trained on.

しかし、私はまた、オプトインのみへの絶え間ないプッシュがあると信じているので、将来のモデルは、それらの画像を訓練するために許可された画像上で訓練されるだけである可能性が高くなります。

So in my opinion, the need for tools like this Nightshade are going to be less and less needed as time goes on.

そのため、このNightshadeのようなツールの必要性は、時代が進むにつれて少なくなっていくだろうと私は考えている。

This week, OpenAI, Anthropics, Google, and Microsoft all gave an update about their model forum.

今週、OpenAI、Anthropics、Google、Microsoftの4社は、モデルフォーラムの最新情報を発表した。

They appointed their first executive director, Chris Meseri.

彼らは、クリス・メセリという最初のエグゼクティブ・ディレクターを任命した。

Now, we talked about the forum in a previous video, but just to sort of catch you up, the mission of the forum is to advance AI safety research, to promote responsible development of frontier models, and minimize potential risks.

前のビデオでフォーラムについて話しましたが、フォーラムの使命は、AIの安全性の研究を進め、フロンティアモデルの責任ある開発を促進し、潜在的なリスクを最小限に抑えることです。

Identify safety best practices for frontier models, share knowledge with policymakers, academics, civil society, and others to advance responsible AI development, and support efforts to leverage AI to address society's biggest challenges.

フロンティアモデルの安全ベストプラクティスを特定し、政策立案者、学者、市民社会などと知識を共有し、責任あるAI開発を推進し、AIを活用して社会の最大の課題に取り組む取り組みを支援する。

They also announced a $10 million AI safety fund.

また、1,000万ドルのAIセーフティ基金を設立することも発表した。

The primary focus of the fund will be supporting the development of new model evaluations and techniques for red teaming AI models, to help develop and test evaluation techniques for potentially dangerous capabilities of frontier systems.

この基金の主な焦点は、AIモデルをレッドチーム化するための新しいモデル評価と技術の開発を支援し、フロンティアシステムの潜在的に危険な能力に関する評価技術の開発とテストを支援することである。

Basically, they're funding a team outside of the actual companies themselves that are funding it to find ways to make these tools more secure, more private, and also to try to break the tools and find vulnerabilities and bugs and issues with the tools.

基本的には、これらのツールをより安全で、よりプライベートなものにする方法を見つけるため、またツールを壊して脆弱性やバグ、ツールの問題点を見つけようとするために、実際の企業自身の外部にあるチームに資金を提供している。

OpenAI also announced an internal team this week that they're calling their preparedness team.

OpenAIは今週、彼らが準備チームと呼んでいる内部チームを発表しました。

This preparedness team essentially has the same role as the forum team.

この準備チームは、基本的にフォーラムチームと同じ役割を担っている。

Their goal is to manage the catastrophic risks from frontier AI by answering questions like, How dangerous are frontier AI systems when put to misuse, both now and in the future?

彼らの目標は、フロンティアAIからの重大なリスクを管理することであり、フロンティアAIシステムが誤用された場合の危険性について、現在と将来の両方において質問に答えることです。

How can we build a robust framework for monitoring, evaluation, prediction, and protection against the dangerous capabilities of frontier AI systems?

フロンティアAIシステムの危険な能力を監視、評価、予測、保護するための強固な枠組みを構築するにはどうすればいいのか?

And if our frontier AI model weights were stolen, how might malicious actors choose to leverage them?

また、私たちのフロンティアAIモデルの重みが盗まれた場合、悪意ある行為者はどのようにそれを活用することを選択するのだろうか?

They also launched their $25,000 AI preparedness challenge.

彼らはまた、25,000ドルのAI準備チャレンジも開始した。

They're looking for 10 submissions of novel ideas to prevent catastrophic issues, and if you end up helping them, you could end up getting a piece of that $25,000 in API credits.

彼らは大惨事を防ぐための斬新なアイデアを10件募集しており、もしあなたがそれに協力することになれば、APIクレジットとして25,000ドルの一部を手にすることになるかもしれない。

And if OpenAI is doing it, Google might as well too.

OpenAIがやっているのなら、Googleもやるかもしれない。

So acting on our commitment to safe and secure AI, this week Google announced their bug bounty program specific to generative AI.

そこで、安全でセキュアなAIへのコミットメントに基づき、今週Googleは生成AIに特化したバグ報奨金プログラムを発表した。

They released some criteria over on the Google Security Blog of what sort of things are in scope and out of scope to potentially receive the bounties for helping them find bugs in their AI systems.

グーグル・セキュリティ・ブログでは、AIシステムのバグを発見して報奨金を受け取るために、どのようなものが対象で、どのようなものが対象外なのか、いくつかの基準を公開している。

Also this week, the British Prime Minister announced that he would establish a new Artificial Intelligence Safety Institute, as well as seeking buy-in for a new global expert panel on the emerging technology.

また今週、イギリスの首相は新たな人工知能安全研究所を設立し、新たなグローバルな専門家パネルの賛同を求めると発表しました。

Next week, the UK is having their Global AI Summit, where they intend to set up a body that will investigate AI risks and share those with global partners.

来週、英国はグローバルAIサミットを開催し、AIのリスクを調査し、それをグローバル・パートナーと共有する機関を設立する意向だ。

They also claim that they will make the work of their AI Safety Institute available to the world.

彼らはまた、AI Safety Instituteの業務を世界に公開すると主張しています。

Next up, I want to tell you about the sponsor of today's video, HubSpot.

次は、今日のビデオのスポンサーであるHubSpotについてお話ししたいと思います。

They just put out a new guide all about ChatGPT.

彼らはChatGPTに関する新しいガイドを発表しました。

It's called The Ultimate Guide for Using ChatGPT at Work, and it's available to download for free.

その名も「The Ultimate Guide for Using ChatGPT at Work」で、無料でダウンロードできます。

As we all know, AI is rapidly changing the way we work, and of course, ChatGPT is at the front of this revolution.

ご存知のように、AIは私たちの働き方を急速に変えつつあり、もちろんChatGPTはこの革命の最前線にいます。

It can help you write everything from blog posts to emails to YouTube scripts and ad copy, and it's incredibly easy to use if you know the right way to do it.

ブログ記事からEメール、YouTubeスクリプト、広告コピーまで、あらゆるものを書くのに役立ち、正しいやり方さえ知っていれば驚くほど簡単に使えます。

So here are a few ways that HubSpot highlights using ChatGPT at work.

HubSpotが注目するChatGPTの活用方法をいくつかご紹介します。

You can generate high-quality content quickly and easily because ChatGPT can basically write at a human level, but it's not a human, so it does it a lot faster.

ChatGPTは基本的に人間レベルの文章を書くことができますが、人間ではないので、より速く書くことができます。

So you get to spend less time on writing and more time on other important tasks.

ChatGPTは基本的に人間レベルの文章を書くことができますが、人間ではないので、より速く文章を書くことができます。

And ChatGPT helps you save time and energy by helping you automate repetitive tasks, things like research, fact-checking, and even helping you come up with ideas for images within your writing, which again frees up your time for the work that's actually important to you.

そして、ChatGPTは、研究や事実確認、文章内のイメージのアイデアを提供することなど、反復的なタスクを自動化することで、時間とエネルギーを節約するのに役立ちます。これにより、実際に重要な作業に時間を割くことができます。

So if you're looking for a way to boost your productivity and improve the way you get work done, I highly recommend checking out HubSpot's guide for ChatGPT.

生産性を高め、仕事の進め方を改善する方法をお探しなら、ぜひHubSpotのChatGPTガイドをチェックすることをお勧めします。

Again, ChatGPT can help you get a lot more done in a lot less time if you know how to use it correctly, and HubSpot wants to help you demystify how to use this powerful tool.

再び、ChatGPTは正しく使えば、より多くのことをより少ない時間で行うのに役立ちます。そして、HubSpotはこの強力なツールの使い方を解説するのをお手伝いします。

So if you don't know where to start, check out this guide to learn everything you need to know.

HubSpotは、この強力なツールの使い方を分かりやすく説明するお手伝いをします。何から始めたらよいか分からない場合は、このガイドをご覧ください。

To learn more about this free resource and how it can help you with your work, visit the link in the description below.

この無料リソースの詳細と、あなたの仕事に役立つ方法については、以下の説明のリンクをご覧ください。

And thank you once again to HubSpot for sponsoring this video.

そして、このビデオをスポンサーしてくださったHubSpotに改めて感謝します。

Also this week, Amazon is bringing conversational AI to kids with the launch of Explore with Alexa.

また今週、AmazonはExplore with Alexaを発表し、会話型AIを子供たちに提供します。

This is actually an Alexa conversational experience designed for kids under the age of 13.

これは実際に13歳以下の子供向けにデザインされたアレクサの会話体験だ。

However, it still can be led astray and hallucinate answers.

しかし、まだ迷わせたり、答えを幻覚で見せたりすることができる。

However, Amazon claims they've put some guardrails in place to address the potential problems.

しかしアマゾンは、潜在的な問題に対処するためにいくつかのガードレールを設置したと主張している。

If you remember from a few months ago, Yannick Kure and an entire community of people launched Open Assistant, and it was designed to be a ChatGPT alternative that was completely open source and essentially completely built and trained by the people that were using it.

数ヶ月前に覚えているかもしれませんが、Yannick Kureという人物とそのコミュニティがOpen Assistantを立ち上げました。それは完全にオープンソースであり、実際に使用している人々によって完全に構築され、訓練されたChatGPTの代替となるものでした。

Well, this week, they decided that they are done working on it.

そして今週、彼らはその作業を終了することを決定しました。

Now, it is still open source.

現在もオープンソースです。

It is still openly available.

まだオープンに利用できる。

People can go and pick up where they left off and continue working on it.

人々は、彼らがやり残したことを取り戻し、作業を続けることができる。

But the initial team that was building it said that essentially they are happy with where they're leaving off on it, and their work here is done, essentially.

しかし、それを構築していた最初のチームは、基本的に自分たちがやり残したところに満足しており、ここでの仕事は基本的に終わったと述べた。

They also went on to say that with all of the major companies getting involved, the Googles, the Metas, the Microsofts, the Amazons of the world, all getting involved in building large language models, they just didn't feel like they were going to be able to build something that was going to be at that level with the resources they had available to them.

彼らはまた、主要な企業がAIの大規模な言語モデルの構築に関与していると述べ、GoogleやMeta、Microsoft、Amazonなどが関与しているため、彼らが利用可能なリソースでそのレベルに達することはできないと感じたと述べました。

And finally, in the last bit of large language model news for the week, there was a little bit of a leak around Gemini and something called Stubs.

最後に、今週最後の大規模言語モデルのニュースとして、GeminiとStubsと呼ばれるものに関するちょっとしたリークがあった。

Now, in this Medium post, that last name essentially leaked screenshots of what Gemini and Stubs will look like.

このMediumの投稿では、GeminiとStubsがどのようなものになるかのスクリーンショットがリークされている。

Now, we kind of already know that Google's PaLM 2 is going to be replaced by Gemini.

さて、GoogleのPaLM 2がGeminiに取って代わられることは、すでになんとなくわかっている。

And if you're wondering, well, what is this Stubs that he's talking about?

もし疑問に思っているなら、彼が話している「Stubs」とは何かということですか?

It's a feature where you get to build and launch your own AI-generated app directly from Maker Suite.

これは、Maker Suiteから直接、自分のAIが生成したアプリをビルドして起動できる機能だ。

He says that translation between languages will be fully supported in Maker Suite, and Google will provide a sample prompt for translating between Spanish and English when it's out.

同氏によると、Maker Suiteでは言語間の翻訳が完全にサポートされる予定で、Googleはリリース時にスペイン語と英語間の翻訳プロンプトのサンプルを提供する予定だという。

So keep an eye out for that.

期待していてほしい。

Now, from the leaked screenshots, he claims that this new Stubs tool will be like AI-generated Figma prototypes.

さて、リークされたスクリーンショットから、彼はこの新しいStubsツールはAIが生成するFigmaプロトタイプのようなものだと主張している。

It won't create full code, but rather working AI-generated app prototypes.

完全なコードではなく、AIが生成するアプリのプロトタイプを作成する。

You can see in this screenshot here, there's a text box, and within the text box, they wrote, Make an app that provides pet care instructions.

このスクリーンショットを見ると、テキストボックスがあり、そのテキストボックスの中に「ペットの世話の仕方を説明するアプリを作ろう」と書かれているのがわかる。

He also claims that you'll be able to remix Stubs and have your own twist on an idea.

彼はまた、Stubsをリミックスして、アイデアに自分なりのひねりを加えることができるようになるとも主張している。

He then showed off some leaked screenshots from Gemini here, which shows that it will likely be multimodal.

彼はここでGeminiからのリークされたスクリーンショットを披露しましたが、おそらくそれはマルチモーダルになるでしょう。

It looks like you'll be able to upload images and ask questions about the images.

画像をアップロードしたり、画像について質問したりできるようだ。

And I'll link to this blog post in the description, along with everything else I've talked about in this video today, so you can read more about the details yourself.

説明文には、今日このビデオで話した他のすべてと一緒に、このブログ記事へのリンクも貼っておくので、詳細については自分で読んでほしい。

But seeing how this is some leaked screenshots and there's been no confirmation from anybody other than Bados here, still take this information with a grain of salt.

しかし、これはリークされたスクリーンショットであり、バドス以外の誰からも確認が取れていないことから、この情報は大目に見てほしい。

I mean, it feels pretty legitimate, but you just never know.

つまり、かなり合法的な感じはするが、分からないということだ。

And speaking of leaks, this week there was a leak of the new Snapdragon 8 Gen 3.

リークといえば、今週は新しいSnapdragon 8 Gen 3のリークがあった。

Now, the Snapdragon is the mobile chip that's in many mobile phones these days.

Snapdragonは、最近多くの携帯電話に搭載されているモバイルチップだ。

Here it says, The Snapdragon 8 Gen 3 makes its debut in a mobile platform designed specifically for generative AI.

Snapdragon 8 Gen 3は、ジェネレーティブAI向けに特別に設計されたモバイルプラットフォームでデビューします。

Now, again, since this was a leak and not something that was actually confirmed by one of the companies involved, take this with a grain of salt.

繰り返しますが、これはリークであり、実際に関係企業が確認したものではないので、大目に見てください。

But I mean, it's pretty fair to assume that all next-generation chips are going to be designed with AI in mind.

しかし、すべての次世代チップはAIを念頭に置いて設計されると考えるのはかなり公平だ。

So I'd say we can fairly confidently assume that this information is correct.

だから、この情報が正しいとかなり自信を持って推測できると思う。

One thing for sure is that Snapdragon 8 Gen 3 will definitely challenge iPhone 15's ray tracing capability.

確かなことは、Snapdragon 8 Gen 3は間違いなくiPhone 15のレイトレーシング機能に挑戦するということだ。

It's a console-defying and premium-level Gen 3 with a ray tracing feature brought to you by Unreal Engine 5.2 and can upscale cutscenes up to 8K.

アンリアル・エンジン5.2によってもたらされたレイトレーシング機能を搭載し、カットシーンを最大8Kまでアップスケールできる、コンソールを凌駕するプレミアムレベルのGen 3だ。

Now, this article is full of technical jargon that, quite honestly, is over my head.

さて、この記事は技術的な専門用語が多く、正直なところ、私の頭では理解できない。

But here's the full leaked specs here if you want to pause and take a look.

しかし、ここにリークされたスペックの全容が掲載されている。

Quite honestly, I don't personally have a frame of reference other than what this article tells me that it's going to give iPhone 15 a run for its money.

正直なところ、個人的にはこの記事からiPhone 15に軍配が上がるということ以外、参考になる枠がない。

It sounds like YouTube might be trying to make an official way to create AI Drake fakes.

YouTubeはAIドレイクの偽物を作る公式な方法を作ろうとしているのかもしれない。

And I guess not just AI Drake, they want to get the rights to use musician songs to train a new AI-powered voice replicating tool.

そして、AIドレイクだけでなく、新しいAI搭載の音声複製ツールを訓練するためにミュージシャンの楽曲を使用する権利を得ようとしているようだ。

YouTube is currently developing an AI-powered tool that allows users to replicate the voice of famous musicians while recording audio, according to a new report by Bloomberg.

ブルームバーグが新たに報じたところによると、YouTubeは現在、ユーザーが音声を録音しながら有名ミュージシャンの声を複製できるAI搭載ツールを開発中だという。

No deals have yet been signed by any major record label, but Bloomberg sources claim that the discussions between parties are currently ongoing.

大手レコード会社との契約はまだ結ばれていないが、Bloombergの情報筋によると、関係者間の話し合いは現在進行中だという。

Not a ton is known about this yet, but it sounds like YouTube wants to find a way to work with the music labels to allow people to use AI-generated songs, but I would assume also fairly compensate the artists.

この件に関してはまだあまり知られていないが、YouTubeは音楽レーベルと協力して、AIが生成した楽曲を人々が使用できるようにする方法を見つけたいようだ。

And speaking of YouTube, YouTube Music now lets you make your own playlist art with AI.

YouTubeといえば、YouTube MusicではAIを使って独自のプレイリスト・アートを作ることができるようになった。

Previously, YouTube didn't even let you change the cover art of your playlist at all.

以前は、YouTubeはプレイリストのカバーアートを変更することさえできなかった。

And still, it looks like you won't get to upload your own image, but you can now make a custom image using generative AI for your playlist.

それでも、自分の画像をアップロードすることはできないようだが、ジェネレーティブAIを使ってプレイリスト用のカスタム画像を作ることができるようになった。

Nothing mind-blowing, but since I was on the topic of YouTube, figured I might as well mention it.

驚くようなことではないが、YouTubeの話題だったので、触れておこうと思う。

Late last week, Satya Nadella from Microsoft wrote his annual letter to the shareholders, and well, it's a pretty long document.

先週末、MicrosoftのSatya Nadellaが株主への年次報告書を書きましたが、それはかなり長い文書です。

So I did what any smart person does who wants to save time, and I plugged the long document into Cloud and asked it to give me the high-level bullets of things in the letter that are related to AI.

そこで私は、時間を節約したい賢い人なら誰でもすることをした。長い文書をCloudにプラグインし、書簡の中でAIに関連する事柄のハイレベルな箇条書きを教えてくれるよう頼んだのだ。

And this is what it told me.

そして、こう教えてくれた。

Microsoft is entering a new era focused on AI, including launching Copilot, an everyday AI assistant that will be integrated across Microsoft products.

マイクロソフトは、マイクロソフト製品全体に統合される日常的なAIアシスタントであるCopilotを立ち上げるなど、AIに焦点を当てた新しい時代を迎えようとしている。

Microsoft introduced AI capabilities across products like GitHub Copilot for developers, Dynamics 365 Copilot for business applications, and Microsoft 365 Copilot for productivity.

マイクロソフトは、開発者向けのGitHub Copilot、ビジネスアプリケーション向けのDynamics 365 Copilot、生産性向上のためのMicrosoft 365 Copilotといった製品にまたがるAI機能を紹介した。

Microsoft aims to train and certify 10 million people with digital skills, including AI skills, by 2025.

マイクロソフトは、2025年までにAIスキルを含むデジタルスキルを持つ1,000万人を育成・認定することを目指している。

So far, it's helped 8.5 million gain the skills.

これまでのところ、850万人のスキル習得を支援している。

Microsoft believes AI can help address climate change and launched tools like Global Renewables Watch to map clean energy sources.

マイクロソフトはAIが気候変動への対応に役立つと考え、クリーンなエネルギー源をマッピングするGlobal Renewables Watchのようなツールを立ち上げた。

Microsoft acquired Activision Blizzard and is using AI to improve gaming through recommendations and personalization in Xbox Game Pass.

マイクロソフトはアクティビジョン・ブリザードを買収し、Xbox Game Passのレコメンデーションやパーソナライゼーションを通じてゲームの改善にAIを活用している。

Microsoft launched new AI-powered search features in Bing, including chat and image generation.

マイクロソフトは、チャットや画像生成など、AIを活用した新しい検索機能をBingで開始した。

And Microsoft is focused on developing AI responsibly with principles, practices, and tools to ensure trustworthy and ethical AI, something that we also talked about at the beginning of this video.

そしてマイクロソフトは、信頼できる倫理的なAIを保証するための原則、実践、ツールを用いて、責任を持ってAIを開発することに注力しています。

So here's something fun.

ここで面白い話をしよう。

Several months ago, we talked about how there's a new Beatles song coming out, and Paul McCartney and Ringo Starr worked on it, but they were also able to use vocals from John Lennon using some old recordings that they found combined with AI.

数ヶ月前、ビートルズの新曲がリリースされるという話をしましたが、ポール・マッカートニーとリンゴ・スターが制作に携わり、AIと組み合わせて見つけた古い録音を使い、ジョン・レノンのボーカルを使うこともできました。

Well, we now have a release date of when we can expect this new song.

さて、この新しい曲が期待できるリリース日があります。

The song is called Now and Then, and it will be released on March 4th, 2023.

曲名は『Now and Then』で、2023年3月4日にリリースされる予定だ。

So mark your calendars for that.

カレンダーに印をつけておこう。

And that's all the AI news for this week.

それが今週のAIニュースのすべてです。

And then, it drops on November 2nd with a music video debuting on November 3rd.

そして、11月2日にドロップされ、11月3日にミュージックビデオがデビューする。

So, if you're a Beatles fan or an AI fan, that's something to look forward to this week.

だから、もしビートルズのファンまたはAIのファンなら、今週は楽しみですね。

Forbes launched a new generative AI search tool called Adelaide, powered by Google Cloud.

フォーブスは、Google Cloudを利用した新しい生成AI検索ツール「Adelaide」を発表した。

It's basically an AI-powered search engine to help you search the news on Forbes.

これは基本的にAIを搭載した検索エンジンで、フォーブスのニュースを検索するのに役立つ。

Also, this week, this article came out claiming that Google Maps is becoming more like search thanks to AI.

また、今週は、グーグルマップがAIのおかげでより検索に近くなっているという記事が出た。

Google Maps is getting an AI makeover, adding new features like immersive View and making existing features like driving directions easier to follow.

グーグルマップはAIによって一新され、没入型ビューのような新機能を追加し、道案内のような既存の機能をより簡単にする。

The biggest takeaway here is that Google wants maps to be more like search, a place where people can obviously come get directions or find coffee shops and EV Chargers, but also enter vague queries like Fall Foliage, latte art, or things to do in Tokyo and get a whole bunch of actually useful hits.

ここでの最大のポイントは、グーグルがマップをより検索に近いものにしたい、ということだ。道順を調べたり、コーヒーショップやEV充電器を探したりするのは当然だが、紅葉やラテアート、東京での楽しみ方といった漠然としたクエリを入力しても、実際に役立つ情報がたくさんヒットする場所にしたいのだ。

Google is using neural Radiance Fields, AKA Nerfs, which is a form of generative AI, to sort through billions of images, including aerial photos, Street imagery, and indoor snaps, to create 360° experiences.

Googleは、生成AIの一種であるニューラル・ラディアンス・フィールド(別名ネルフ)を使って、航空写真、ストリート画像、屋内スナップなど、何十億もの画像を選別し、360°の体験を作り出している。

Traffic information is culled from historical data and filtered through Google's predictive algorithm to help users figure out the best time to get somewhere with the least amount of traffic.

交通情報は、過去のデータから収集され、Googleの予測アルゴリズムを通じてフィルタリングされます。これにより、ユーザーは最も混雑しない時間にどこかに行くための最適な時間を見つけることができます。

So, to me, this sounds like some pretty cool and pretty useful new updates that we're going to be getting inside of Google Maps pretty soon.

だから、これはGoogle Mapsの中で近々手に入るかなりクールで便利な新しいアップデートのように思えます。

In the world of Robotics, Boston Dynamics put ChatGPT inside one of their robots, and they're using it as a robot tour guide.

ロボティクスの世界では、ボストン・ダイナミクス社がロボットにChatGPTを搭載し、ツアーガイドとして使っている。

The robot could walk around, look at objects in the environment, use VQA or captioning model to describe them, and then elaborate on those descriptions using a large language model.

ロボットは歩き回り、環境にあるオブジェクトを見て、VQAやキャプションモデルを使用してそれらを説明し、大規模な言語モデルを使用してそれらの説明を詳しく説明することができる。

Additionally, the large language model could answer questions from the tour audience and plan what actions the robot should take next.

さらに、大規模な言語モデルは、ツアー参加者からの質問に答え、ロボットが次に取るべき行動を計画することができる。

This article then goes on to share a lot of the technical details about how this actually works, and it's even using 11 labs to do the text to speech, meaning that it probably has a pretty realistic sounding voice.

この記事では、実際にどのように機能するのかについて、技術的な詳細がたくさん紹介されている。11の研究室を使ってテキストから音声に変換しているので、おそらくかなりリアルな音声になっているはずだ。

I found this to be interesting as well.

私もこれは興味深いと思いました。

The Waymo driverless vehicles are now available through Uber, and it's starting in Phoenix.

Waymoの無人運転車は、Uberを通じて利用できるようになりました。

So, you can actually open up Uber and order yourself an autonomous Waymo vehicle, and a driverless car will show up, pick you up, and take you to your destination.

Uberを開き、ウェイモの自律走行車を注文すると、運転手のいない車が現れ、あなたを乗せて目的地まで連れて行ってくれます。

If you just want to use the Waymo app straight up, you can actually use it in Phoenix, San Francisco, Los Angeles, and pretty soon, Austin, Texas.

Waymoのアプリをそのまま使いたい場合は、フェニックス、サンフランシスコ、ロサンゼルス、そしてもうすぐテキサス州オースティンで使うことができる。

This week, Bill Gates did an interview with a German newspaper.

今週、ビル・ゲイツがドイツの新聞のインタビューに応じた。

During his interview, he said that he thinks that the generative AI is kind of plateauing.

そのインタビューの中で、彼は、ジェネレーティブAIはある種の停滞期にあると思うと述べた。

He said that we shouldn't have very high expectations of GPT 5.

GPT 5に大きな期待を持つべきではないと。

He doesn't believe it's going to be much of a leap over GPT-4, and that we've seen most of the significant leaps already that we're going to see, at least for a while.

彼は、GPT-4と比較して大きな飛躍はないと考えており、少なくともしばらくの間は、我々が目にすることになる重要な飛躍のほとんどをすでに目にしているとしている。

Personally, I don't actually believe that.

個人的には、私はそうは思っていない。

I think we haven't seen anything yet.

まだ何も見えていないと思う。

We have a little bit of multimodal capability with things like ChatGPT.

ChatGPTのようなもので、マルチモーダルな機能が少しできました。

We can now have it generate images, and we can now upload images.

画像を生成したり、画像をアップロードできるようになりました。

But I imagine in future versions, we're going to be able to upload audio.

しかし、将来のバージョンでは音声をアップロードできるようになると思います。

We're going to be able to have it give us audio back that we can download.

ダウンロードできる音声を返せるようになるでしょう。

We're going to be able to upload video and have it actually generate videos for us.

ビデオをアップロードして、実際にビデオを生成できるようになるでしょう。

Right now, we can't even connect GPT-4 Vision with DALL·E 3, which seems like a no-brainer that they would be able to go back and forth and iterate off of each other pretty soon.

現時点では、GPT-4 VisionとDALL·E 3を接続することさえできません。おそらくすぐに互いに行き来し、相互に改善できるはずです。

So, I still think we have quite a bit more advancing to do, and I can't even comprehend what these advancements are.

だから、私たちはまだまだ進化しなければならないと思うし、その進化が何なのかも理解できない。

And I don't know what I don't know, so there's probably advancements coming from these things that I'm not even comprehending yet.

そして、私は自分が知らないことを知らない。だから、私がまだ理解していないようなことから、おそらく進歩が生まれるだろう。

On this one, I kind of got to disagree with Bill Gates, but I also don't necessarily know what he knows, so who knows?

この件に関しては、ビル・ゲイツの意見には反対だが、彼が何を知っているのか私も知らない。

That's a lot of knows.

多くのことを知っている。

And finally, Meta Chief AI Scientist says AI won't threaten humans.

最後に、MetaのチーフAIサイエンティストは、AIが人間を脅かすことはないと言っている。

Yan Laon, the Chief AI Scientist at Meta, said that labeling the existential risk of AI is premature and it's preposterous that AI might kill off humanity.

MetaのチーフAIサイエンティストであるヤン・ラオンは、AIの存亡の危機にレッテルを貼るのは時期尚早であり、AIが人類を絶滅させるかもしれないというのはとんでもないことだと述べた。

If you're not familiar with Yan Laon, he is one of the godfathers of AI.

ヤン・ラオンのことをよく知らないかもしれないが、彼はAIの名付け親の一人である。

He won the Turing Award with Jeffrey Hinton and Yoshua Bengio.

彼はジェフリー・ヒントン、ヨシュア・ベンジオとともにチューリング賞を受賞している。

He is one of the people that has been working on this stuff from the early days.

彼は、初期の段階からこの分野で取り組んできた人々の一人です。

And while he doesn't necessarily see eye to eye with Yoshua and Jeffrey Hinton anymore because he believes that all of this existential worry that AI is going to kill off humanity is overblown, while Yoshua and Hinton are sort of on the opposite end of that spectrum where they're much more cautious and thinking that we should be a little bit more worried than we actually are.

彼は、AIが人類を滅ぼすというこの存在的な心配が大げさだと考えているため、もはやYoshuaやJeffrey Hintonとは同じ考えではありません。一方、YoshuaとHintonは、AIについてはもっと慎重で、実際よりも心配すべきだと考えています。

He says the debate on existential risk is very premature until we have a design for a system that can even rival a cat in terms of learning capabilities, which we don't have at the moment.

彼は、学習能力の点で猫にさえ匹敵するシステムの設計ができるまで、存在的なリスクについての議論は非常に早計だと述べていますが、現時点ではそれはありません。

He sees AI as more of a helper and manager of our everyday lives.

彼はAIを、日常生活のヘルパーであり、管理者であると考えている。

He says everyone's interaction with the digital world will be mediated by AI systems.

彼は、すべての人とデジタル世界との相互作用がAIシステムによって媒介されるようになるだろうと言っている。

Personally, I fall somewhere in between.

個人的には、私はその中間にいる。

I have a healthy amount of fear and some concern over where AI is headed, but I also tend to lean fairly optimistic that we're going to figure this out as we go.

AIがどこへ向かっているのか、私は健全な恐怖と懸念を抱いているが、私たちは行く先々でこれを解明していくだろうと、かなり楽観的になる傾向もある。

And well, I actually have some upcoming videos on that exact topic that I'm really excited to share in the near future.

そして、実際には、近い将来にその具体的なトピックについて共有するのがとても楽しみないくつかのビデオがあります。

I'm really trying to put some polish on them and get my thoughts out clearly on those topics.

これらのトピックについて、より洗練されたものにし、私の考えを明確に伝えたいと思っている。

So look for those on the YouTube channel soon.

近いうちにYouTubeチャンネルで公開する予定なので、楽しみにしていてほしい。

And if you haven't already, click the button to subscribe to this channel to make sure that that shows up in your YouTube feed.

まだの方は、YouTubeのフィードに表示されるように、このチャンネルを購読するボタンをクリックしてください。

That's all the AI news I got for you for this week.

それが今週のAIニュースのすべてです。

And I'm recording this on Thursday.

木曜日に録画しています。

There might even be new news on Friday that I totally missed in this video.

金曜日には、このビデオで完全に見逃してしまった新しいニュースがあるかもしれない。

And if I did, I'll make sure it's in next week's video.

もしそうなら、来週のビデオで必ずお伝えします。

Thank you so much for tuning in.

ご視聴ありがとうございました。

If you enjoyed this and you want to see more news like this, as well as tutorials and some upcoming video essays on the world of AI, again, consider subscribing to this channel and like this video.

このビデオを楽しんでいただき、さらにこのようなニュースやチュートリアル、AIの世界についてのビデオエッセイをご覧になりたい方は、このチャンネルをご購読いただき、このビデオに「いいね!」を押してください。

That will make sure more videos like this show up in your YouTube feed.

そうすれば、このようなビデオがあなたのYouTubeフィードにもっと表示されるようになります。

And don't forget to check out futurtools, where I curate all of the coolest AI tools that I come across, as well as all of the AI news on a daily basis.

そして、futurtoolsをチェックすることもお忘れなく。ここでは、私が出会った最もクールなAIツールのすべてをキュレーションし、AIに関するあらゆるニュースを毎日お届けしています。

I've also got a free newsletter where I will send you all the cool tools and latest AI news directly to your email inbox.

また、無料のニュースレターも発行しており、クールなツールや最新のAIニュースをあなたのメールボックスに直接お届けしています。

You can find it all over at futurtools.

すべてfuturtoolsでご覧いただけます。

Thank you once again for tuning in.

ご視聴ありがとうございました。

Thank you once again to HubSpot for sponsoring this video.

このビデオをスポンサーしてくれたHubSpotに改めて感謝します。

You really make it so that I get to live my dream and make fun YouTube videos and nerd out about AI all day long.

HubSpotのおかげで、私は自分の夢を実現し、楽しいYouTubeビデオを作り、一日中AIについてオタクになることができます。

So thank you again to HubSpot.

HubSpotの皆さん、本当にありがとうございます。

You guys are rock stars, and I appreciate you.

みなさんはロックスターですし、私はみなさんを感謝しています。

And I appreciate you watching this video because it is so much fun to nerd out with you.

あなたがこのビデオを見てくれていることに感謝しています。一緒に熱く語り合うのはとても楽しいです。

I am so appreciative of every single person that watches my videos, even the ones that make the negative comments.

私のビデオを見てくれるすべての人に感謝しています。ネガティブなコメントをする人でもです。

I still appreciate you taking the time to watch the video.

それでも時間を割いてビデオを見てくれて感謝している。

So thank you so much.

本当にありがとう。

You rock.

君はロックだ。

I really appreciate you.

本当にありがとう。

See you in the next video.

また次のビデオで会いましょう。

Bye-bye.

バイバイ。


この記事が気に入ったらサポートをしてみませんか?