見出し画像

【AIニュース】英語解説を日本語で読む【2023年7月29日|@Matt Wolfe】

この動画では、Twitterのリブランド、AI企業の自主的な取り組み、OpenAIのトラスト&セーフティの責任者の退任、AIモデルの安全な開発と展開のための業界団体の設立、AIの感情に関する議論、AIを使用した画像や動画の生成に関する新しいツールや機能、ニュース出版社によるAI企業への訴訟の可能性について詳しく説明されています。
公開日:2023年7月29日
※動画を再生してから読むのがオススメです。


This week, the biggest news in the tech world was that Twitter has officially rebranded to X, and pretty much everybody on the planet can't understand why.

今週、テック界では最大のニュースとしてTwitterが正式にXにリブランドされ、ほぼ地球上の全ての人がなぜ理解できないのかという話題がありました。

The X team seemingly threw 17 years of brand equity in the Twitter name.

Xチームは、ツイッターの名前に17年間のブランドエクイティを投げ込んだようだ。

I sort of understand why they did this, but it's a whole rabbit hole for a different day.

私は、彼らがなぜこのようなことをしたのか、なんとなく理解できるが、それは別の日のためにウサギの穴全体である。

We also learned this week that aliens probably exist.

また今週、私たちはエイリアンの存在を知った。

As I've stated publicly already in my news Nation interview, biologics came with some of these recoveries.

News Nationのインタビューですでに公言しているように、これらの回復の一部には生物製剤が使われていた。

Yeah, were they I guess human or non-human biologics?

そうですね、彼らは人間なのか非人間なのか、生物学的なのか、非生物学的なのか、さっぱりわかりません。

Non-human, and that was the assessment of people with direct knowledge on the program I talked to that are currently still on the program.

非ヒト生物学的製剤です。それは、現在もプログラムに参加している、プログラムについて直接知っている人たちの評価です。

And people freaking out by whatever the heck this trend is.

そして、このトレンドが何であれ、人々はパニックになっている。

But that's not why you tune into this channel.

しかし、あなたがこのチャンネルにチャンネルを合わせる理由はそこではない。

You come here to learn about all the AI news, and this week there was some serious AI news.

AIに関するニュースを知るためにここに来ているわけで、今週はAIに関する重大なニュースがあった。

So let's go ahead and break it down right now.

それでは、今すぐ分解していきましょう。

At the end of last week, a statement was released on the White House website stating that the Biden Harris Administration secures voluntary commitments from leading artificial intelligence companies to manage the risks posed by AI.

先週末、ホワイトハウスのウェブサイトに、バイデン・ハリス政権はAIがもたらすリスクを管理するために、人工知能のリーディングカンパニーから自発的な約束を取り付けるという声明が発表された。

Amazon, Anthropic, Google, Inflection, Meta, Microsoft, and OpenAI all voluntarily committed to practice safe AI.

Amazon、Anthropic、Google、Inflection、Meta、Microsoft、OpenAIはすべて、安全なAIを実践することを自発的に約束した。

The leaders of these companies all promised to ensure products are safe before introducing them to the public, build systems that put Security First and earn the Public's trust.

これらの企業のリーダーたちは皆、一般に紹介する前に製品の安全性を確認し、セキュリティ第一のシステムを構築し、国民の信頼を得ることを約束した。

Shortly after this White House announcement came out, one by one, each one of these companies dropped an announcement on their own websites about the Frontier Model Forum.

このホワイトハウスの発表があった直後、これらの企業は次々と、フロンティア・モデル・フォーラムについての発表を自社のウェブサイトに掲載した。

This is an industry body focused on ensuring safe and responsible development of Frontier AI models.

これは、フロンティアAIモデルの安全で責任ある開発を確保することに焦点を当てた業界団体である。

The core objectives of this forum are to advance AI Safety Research, promote responsible development of Frontier models, minimize risks, and enable independent standardized evaluations of capabilities and safety.

このフォーラムの主な目的は、AIの安全性研究を推進し、フロンティアモデルの責任ある開発を促進し、リスクを最小化し、能力と安全性の独立した標準化された評価を可能にすることである。

They also aim to identify best practices for the responsible development and deployment of Frontier models, help the public understand the nature, capabilities, limitations, and impact of the technology, collaborate with policymakers, academics, civil society, and companies to share knowledge about trust and safety risks, and support efforts to develop applications that can help meet society's greatest challenges.

また、フロンティア・モデルの責任ある開発と展開のためのベスト・プラクティスを特定し、技術の性質、能力、限界、影響について一般市民の理解を助け、政策立案者、学者、市民社会、企業と協力して信頼と安全性のリスクに関する知識を共有し、社会の最大の課題に対応できるアプリケーションの開発努力を支援することも目的としています。

This is OpenAI's statement from their blog, but if you read the statement on Microsoft's blog, it pretty much says the same thing.

これはOpenAIのブログの声明だが、マイクロソフトのブログの声明を読めば、ほぼ同じことが書かれている。

And again, if you read the statement over on Google's blog, yep, pretty much the same message.

また、グーグルのブログの声明を読んでも、ほとんど同じことが書かれている。

Anthropic also released a similar message over on their blog, but they refused to mention the other companies by name.

Anthropicも同様のメッセージをブログで発表しているが、他の企業の名前を挙げることを拒否している。

If I do a quick search, you can see Google not mentioned, Microsoft not mentioned, and OpenAI not mentioned.

検索してみると、グーグルは言及せず、マイクロソフトも言及せず、OpenAIも言及していない。

From my perspective, basically what this is is all of these companies coming together to make sure that they align on safety.

私の見立てでは、基本的にこれは、これらすべての企業が安全性に関して足並みを揃えるために集まったということだ。

But it's also kind of them getting in the good graces of the government so the government doesn't try to overregulate them.

しかし、これはまた、政府の良い恩恵を受ける方法でもあります。政府が過度に規制しようとしないようにするためです。

They'll say, No, no, no, we'll all come together and work together and regulate ourselves.

「いいえ、いいえ、私たちはみんな一緒になって協力し、自分たちで規制を行う」と彼らは言うでしょう。

So while yes, AI regulations are incoming, these regulations are most likely going to be designed by the people that are building the AI models.

つまり、AIの規制はこれから始まるが、これらの規制はAIモデルを構築している人々によって設計される可能性が高いのだ。

Also, the same day that the White House made their announcement, OpenAI's head of trust and safety, Dave Willner, stepped down from the company.

また、ホワイトハウスの発表と同じ日に、OpenAIの信頼と安全性の責任者であるデイブ・ウィルナーが同社を退任した。

I feel like a lot of the media tried to make this out like Dave Willner was stepping down because he had conflicts with the way that OpenAI handled trust and safety.

多くのメディアは、デイヴ・ウィルナーがOpenAIの信頼と安全性の扱い方と対立したために退任したかのように伝えようとしたような気がする。

But in reality, he was just stepping down because OpenAI was growing so fast and he was spending so much time working that he wasn't spending enough time with his family.

しかし実際には、彼はOpenAIの急成長に伴い、仕事に時間を取られ家族との時間を十分にとれなくなったため、退任しただけなのです。

Instead of actually being an employee of OpenAI, he's moving to an advisory role of OpenAI.

実際にはOpenAIの従業員ではなく、OpenAIの顧問的な役割に移っています。

So he's not totally leaving OpenAI, he's just stepping down from that specific role.

つまり、彼はOpenAIを完全に去ったわけではなく、特定の役割から退いただけなのだ。

But of course, most media outlets are gonna sensationalize everything and make you think this is a really big deal.

しかしもちろん、ほとんどのメディアはすべてをセンセーショナルに報道し、これが本当に大きなことだと思わせようとするだろう。

Also, at the end of last week, Stability AI released Free Willy, their large and mighty instruction fine-tuned models.

また、先週末には、Stability AIがFree Willyをリリースした。

It gets the Free Willy name because it was inspired by the Orca paper about Progressive learning from complex explanation traces of GPT-4.

Free Willyという名前は、GPT-4の複雑な説明の痕跡から漸進的に学習するというOrcaの論文にインスパイアされたからだ。

This model leverages the LLaMA 270b Foundation model and at the moment is only available under a non-commercial license.

このモデルはLLaMA 270b Foundationモデルを活用しており、現時点では非商用ライセンスでのみ利用可能である。

In these various benchmarks like Arc, Hella Swag, MMLU, and Truthful QA, Free Willy 2 actually performed almost as good as ChatGPT.

これらのArc、Hella Swag、MMLU、Truthful QAなどの様々なベンチマークにおいて、Free Willy 2はChatGPTとほぼ同等の性能を発揮しました。

And if you have no idea what Arc, Hella Swag, MMLU, or Truthful QA are, don't worry, neither did I. I literally had to look it up before making this video.

もしあなたがArc、Hella Swag、MMLU、Truthful QAが何なのか知らなくても心配しないでください。

These are essentially like quizzes that they use on these chatbots to test how accurate the bots are.

これらは基本的に、チャットボットがどれだけ正確かをテストするためのクイズのようなものだ。

So when giving these various tests that sort of have different focuses in different areas, they'll score differently.

ですから、このようなさまざまなテストを行う際、異なる分野に重点を置くと、スコアが違ってきます。

So in this Arc test, ChatGPT outscored Free Willy, whereas in this Hella Swag test, Free Willy actually outscored ChatGPT-3.

このArcテストでは、ChatGPTがFree Willyを上回ったのに対し、このHella Swagテストでは、Free WillyがChatGPT-3を上回りました。

If you'd like to test Free Willy 2 for yourself, there are a few Hugging Face spaces available where you can give it a shot.

もしFree Willy 2を試してみたいなら、Hugging Faceのスペースで試すことができます。

Just go to spaces, search Free Willy 2, and there's a very basic user interface.

スペースでFree Willy 2と検索してください。

And if you really know what you're doing, the files are also available over on Hugging Face for people to run and experiment with themselves.

そして、もし本当に自分が何をやっているのかわかっているのであれば、Hugging Faceでファイルを入手し、自分で動かして実験することもできる。

Personally, this is above my level of expertise, and I would have no clue how to run these myself, but maybe something I'll dig into deeper in a future video.

個人的には、これは私の専門知識を超えていますし、自分でこれらを実行する方法は全くわかりませんが、将来のビデオで詳細に調査するかもしれません。

This week, the Godfather of AI, Jeffrey Hinton, made a claim that he thinks that AI has or will eventually have emotions.

今週、AIのゴッドファーザーであるジェフリー・ヒントンが、AIは感情を持つ、あるいはいずれ持つようになるだろうと主張した。

Hinton is one of the original AI researchers, and he worked on AI with Google for a long time before recently stepping down from his position at Google because of fears that AI will be used for mass fake news and autonomous weapons.

ヒントンはAI研究者の元祖の一人で、グーグルと共に長い間AIに取り組んできたが、AIが大量のフェイクニュースや自律兵器に使われることを懸念し、最近グーグルの職を辞した。

At a talk that he gave at King's College, when asked if AI systems have emotions, he said, I think they could well have feelings.

キングス・カレッジで行われた講演で、AIシステムに感情はあるのかという質問に対し、彼はこう答えた。

They won't have pain the way you do unless we wanted, but things like frustration and anger, I don't see why they shouldn't have those.

私たちが望まない限り、AIはあなたのような痛みを持つことはないでしょうが、フラストレーションや怒りのような感情は持つはずです。

Now, one thing I'm fairly certain doesn't have emotions are all of these cool AI video tools that we've been getting access to lately.

さて、私が感情を持っていないと確信しているのは、最近私たちが利用できるようになったクールなAIビデオツールだ。

Recently, Runway ML announced that with Gen 2, we can now use image prompts to generate videos.

最近、Runway MLはGen 2で、画像プロンプトを使って動画を生成できるようになったと発表した。

So if I log into my Runway ML account, you can see that there is now an image to video option here.

Runway MLアカウントにログインすると、画像から動画への変換オプションがあるのがわかります。

If I click on this, I could take this image that I recently generated in Leonardo and pull it into Runway.

これをクリックすると、最近レオナルドで生成した画像をRunwayに取り込むことができます。

And if I leave this prompt blank, it will try to animate this image.

このプロンプトを空白にしておくと、この画像をアニメーション化しようとする。

And here's what it generated for us.

これが生成されたものです。

You can see the woman's actually looking around and the light changes on her.

女性が周りを見回し、光が変化しているのがわかると思います。

Now, it's only generating four seconds right now, but if you watched my previous video where I talked about Gen 2 a little bit, what you can actually do is take the very last frame of your video here, take a screenshot of it.

今はまだ4秒しか生成されていませんが、以前のビデオでGen 2について少しお話ししたのをご覧になった方は、実際にできることは、このビデオの最後のフレームをスクリーンショットに撮ることです。

And then, take that screenshot as your starting image for your next video and start to string together a longer and longer video using the last frame of every single four-second video.

そして、そのスクリーンショットを次の動画のスタート画像として使い、4秒の動画の最後のフレームを使って、どんどん長い動画をつなげていくのです。

Realistically, you can make much longer videos, and I imagine it's only a matter of time before tools like Gen 2 build that into the workflow where it just takes that last frame and then continues the video for you.

現実的には、より長いビデオを作成することができますし、Gen 2のようなツールがそのワークフローに組み込んで、最後のフレームを取ってビデオを自動的に続けることが時間の問題でしょう。

Now, whenever I do an example like this, people always say, Well, that worked with an AI image.

さて、私がこのような例を示すとき、人々はいつも言います。「それはAIの画像でうまくいったけどね」って。

Does it work with real images as well?

実際の画像でも使えるのですか?

Here's a silly headshot of myself that I give out when people ask for headshots when I go on podcasts and stuff.

これは、私がポッドキャストなどに出演する際、ヘッドショットを求められたときに配る、私自身の愚かなヘッドショットです。

Let's pull this in and generate with that.

これを引っ張ってきて、これで生成してみよう。

One thing I did notice is that if I also add a text prompt, it changes the image completely.

ひとつ気づいたのは、テキストプロンプトを追加すると、画像が完全に変わってしまうということです。

When you add a text prompt, it uses your image almost as inspiration for the video, but it doesn't use it as sort of the starting frame for the video like you'd want it to.

テキストプロンプトを追加すると、画像は動画のインスピレーションとして使われますが、動画のスタートフレームとしては使われません。

So, if you actually want it to animate the specific image that you upload, you need to leave the prompt blank.

そのため、アップロードした特定の画像をアニメートさせたい場合は、プロンプトを空白のままにする必要があります。

And here's what it generated using my face.

これが私の顔を使って生成されたものだ。

Oh wow, it really just changed the way I look.

うわぁ、本当に私の顔が変わってしまった。

That's kind of creepy, but that's what it does when I uploaded my own headshot.

ちょっと気持ち悪いけど、これが自分の顔写真をアップロードしたときの動きなんだ。

This week, Kyber, one of my other favorite AI video tools, announced text to animation.

今週、私のお気に入りのAIビデオツールのひとつであるKyberが、テキストからアニメーションへの変換を発表した。

Now, they specifically asked me not to show off the user interface yet because the interface is going to change, but I'm going to enter the prompt Samurai holding a sword ready to fight with the sunset behind him.

インターフェイスが変わるので、まだユーザー・インターフェイスを見せびらかさないようにと特別に言われたのだが、プロンプトのサムライが刀を持ち、夕日を背に戦う準備をしているところを入力しようと思う。

And check this out, here's the video that it generated.

そして、これを見てください。こちらが生成されたビデオです。

It only generated a one-second clip, but I mean, it's pretty impressive.

たった1秒のクリップしか生成されませんでしたが、それはかなり印象的です。

And let's just keep on rolling with cool AI video generators.

クールなAIビデオジェネレーターをどんどん紹介していこう。

This is one I haven't talked about in a little while on this channel, but plasmapunk.com just added the new SDXL and Kandinsky 2.2 models inside of their platform.

このチャンネルでしばらく話していなかったが、plasmapunk.comが新しいSDXLとKandinsky 2.2モデルをプラットフォームに追加した。

And I've always really loved the videos that Plasma Punk generates.

プラズマパンクが作成するビデオはいつもとても気に入っている。

So let's walk through the process real quick here.

では、そのプロセスを簡単に説明しよう。

Just for fun, let's pick a song.

お楽しみのために、曲を選んでみよう。

Let's go with Rebellious. Let's go with this kleined sealer here.

Rebelliousにしよう。 このクライントシーラーを使おう。

I'm sure I butchered that name.

この名前はきっと間違っている。

I'll just go ahead and use the little recommended section here for the music.

音楽はこの小さなおすすめセクションを使うことにしよう。

Now, it looks like to use one of these newer models, here it is a premium paid feature, but somehow I have 60 credits available, so maybe you get 60 credits when you first sign up.

さて、これを使うには新しいモデルのうちの1つを使うようですね。それはプレミアム有料の機能となっていますが、なぜか最初にサインアップすると60クレジットが利用可能になるようです。

And then, you need to pay beyond that, but being totally honest, I don't exactly know how that works.

その後、さらに支払いが必要になりますが、全く正直に言って、それがどのように機能するかは正確にはわかりません。

But let's go ahead and try stable diffusion XL and 16.9, and let's click next.

では、安定した拡散XLと16.9を試してみましょう。そして、次へをクリックしましょう。

I'll go ahead and use this sci-fi digital one that it's recommending.

それが推薦してくれたこのSFデジタルを使ってみますね。

I'll click next, and then it asks for a prompt for the video style.

次へ」をクリックすると、ビデオスタイルのプロンプトが表示されます。

Future Punk cyberpunk City highly detailed painting.

フューチャーパンク・サイバーパンク・シティ」。

And then some of these artists, this was actually the default prompt that it suggested.

そして、何人かのアーティストは、実はこれがデフォルトのプロンプトでした。

So let's just see how it goes.

どうなるか見てみましょう。

For the video story, this video is about a man standing in front of a pub in the rain, holding an umbrella.

ビデオのストーリーは、雨の中、パブの前で傘をさして立っている男の話です。

Or you can also give it some song lyrics.

また、歌詞をつけることもできます。

Let's go ahead and use this one that it sort of gave me by default.

さあ、これを使いましょう。デフォルトで提供されたこれを使いますね。

Looks like it's going to cost me 19 credits out of my 60.

60クレジットのうち19クレジットを消費するようだ。

Let's go ahead and click generate and see what we get.

ではgenerateをクリックして、何が出てくるか見てみよう。

And here's what I got out of it. Now, I'm not gonna play the full 20 seconds, but I'll toss it up on my Instagram if you want to take a look.

これがその結果だ。 20秒をフルに再生するつもりはないが、見たければインスタグラムにアップしよう。

Let's just keep on moving.

では、このまま進みましょう。

Now, I know a lot of people that watch these videos are content creators like me, or they watch my videos to stay up to date with how to leverage AI for their own businesses or careers.

このビデオを見ている人の多くは、私のようなコンテンツ・クリエイターであったり、自分のビジネスやキャリアにAIを活用する方法について最新情報を得るために私のビデオを見ていると思う。

Like me, you love to find new and unique ways to use AI and the latest tech to create things that wow people, and to do it quicker than previously possible.

私のように、AIや最新のテクノロジーを使って、人々を驚かせるような新しいユニークな方法を見つけるのが好きで、しかもそれを以前よりも早く実現したいと思っているはずだ。

So for this video, I partnered with HubSpot to get their latest free ebook into your hands.

そこでこのビデオでは、HubSpotと提携して、彼らの最新の無料eブックを皆さんにお届けします。

It's called Using Generative AI to Scale Your Content Operations.

その名も「Using Generative AI to Scale Your Content Operations」。

With this ebook, you'll learn about the tools and the specific prompts that you can use to generate ideas, research content, breakthrough writer's block, create powerful visuals, and even help to market your content to get more eyeballs on it.

この電子書籍では、アイデアの創出、コンテンツのリサーチ、ライターズ・ブロックの解消、パワフルなビジュアルの作成、さらにはコンテンツのマーケティングに役立つツールや具体的なプロンプトについて学ぶことができます。

I especially found this section about staying in Google's good graces even while using AI-generated content particularly helpful because, well, I rank for a lot of great keywords for my future tools website, and a lot of content on my future tools website is actually generated with AI.

私が特に参考にしたのは、AIが生成したコンテンツを使いながらもGoogleのご機嫌を取り続けることについてのセクションだ。というのも、私の未来ツールのウェブサイトは多くの素晴らしいキーワードでランクインしているし、未来ツールのウェブサイトの多くのコンテンツは実際にAIで生成されているからだ。

So I think you'll find it super helpful as well.

だから、あなたもきっと役に立つと思う。

I put the link to download the free ebook in the description below, and thanks again to HubSpot for sponsoring this video and providing this free resource to the viewers.

無料のebookをダウンロードするリンクを以下の説明欄に記載しました。また、このビデオのスポンサーとしてHubSpotに感謝します。これは視聴者に提供される無料リソースです。

Now let's jump back into the news.

さて、ニュースに戻ろう。

This week, Microsoft's Bing chat comes to Chrome and Safari in tests for select users.

今週、マイクロソフトのBingチャットが、一部のユーザーを対象に、ChromeとSafariでテストされました。

Basically, making Bing chat only available inside of Edge was one of Microsoft's ways of trying to get more people to go use Edge.

基本的に、Edge内でのみBingチャットを利用できるようにすることは、より多くの人にEdgeを使ってもらうためのマイクロソフトの方法の一つだった。

Well, it seems like now they just want more people to use Bing chat, whether they're using Edge or not.

しかし今は、Edgeを使っているかどうかに関わらず、より多くの人にBingチャットを使ってもらいたいようだ。

So they're making it available inside of other browsers.

だから、他のブラウザでも使えるようにしているのだ。

I checked to see if I got it, and it says only available in Microsoft Edge, so it doesn't appear they've given me access yet.

私が利用できるかどうか確認したところ、Microsoft Edgeでのみ利用可能と表示されていたので、まだ私は利用できないようだ。

Don't they know who I am?

彼らは私が誰なのか知らないのだろうか?

I don't know why I just did that.

なぜそんなことをしたのかわからない。

Here's some interesting news.

ここで面白いニュースがある。

If you remember, a few months back, OpenAI released their own AI detector where you can copy and paste text from any article or website, and it would tell you whether it thought it was generated by AI or not.

覚えているだろうか、数ヶ月前、OpenAIは独自のAI検出器をリリースした。どんな記事やウェブサイトからもテキストをコピー&ペーストすることができ、それがAIによって生成されたかどうかを教えてくれる。

Well, it turns out it really wasn't too accurate, and OpenAI shut it down without really telling anybody.

しかし、実際にはあまり正確ではないことが判明し、OpenAIはそれを誰にも告げずに閉鎖した。

Back in January, they released this blog post, New AI Classifier for Indicating AI-Written Text.

1月、彼らはこのブログ記事「AIが書いたテキストを示す新しいAI分類器」を発表した。

They launched the tool on January 31st, 2023, and the only announcement about it being shut down is back on this original blog post.

彼らは2023年1月31日にこのツールを立ち上げ、閉鎖されたことを発表したのは、この最初のブログ記事だけだ。

As of July 20th, 2023, the AI classifier is no longer available due to its low rate of accuracy.

2023年7月20日現在、AI分類器はその精度の低さから利用できなくなっています。

In other ChatGPT news, ChatGPT is now available for Android users.

他のChatGPTニュースとしては、ChatGPTがAndroidユーザーでも利用できるようになりました。

The mobile app was previously only available on iPhone.

モバイルアプリはこれまでiPhoneでしか利用できなかった。

This week, they finally rolled it out to Android users.

今週、ついにAndroidユーザーにも提供されました。

When the announcement came out, it was only available in the US, India, Bangladesh, and Brazil.

発表された時点では、アメリカ、インド、バングラデシュ、ブラジルのみで利用可能でした。

However, today inside of OpenAI's Discord, they announced that the ChatGPT app for Android is now also available in Argentina, Canada, France, Germany, Indonesia, Ireland, Japan, Mexico, Nigeria, the Philippines, the UK, and South Korea.

しかし今日、OpenAIのDiscord内で、Android向けChatGPTアプリがアルゼンチン、カナダ、フランス、ドイツ、インドネシア、アイルランド、日本、メキシコ、ナイジェリア、フィリピン、イギリス、韓国でも利用可能になったと発表した。

So now quite a few more countries have access to the app on Android.

これでかなり多くの国でAndroid版アプリを利用できるようになった。

This week, Sam Altman announced Worldcoin.

今週、サム・アルトマンはワールドコインを発表した。

Worldcoin is designed to help differentiate between humans and not humans.

Worldcoinは、人間と人間でないものを区別するために設計されている。

I suppose Worldcoin consists of a privacy-preserving digital identity, a World ID, and where laws allow, a digital currency, or the WLD coin.

Worldcoinは、プライバシーを保護するデジタルID、World ID、そして法律が許す限りデジタル通貨、WLDコインで構成されていると思う。

You receive these coins simply for being human.

これらのコインは、単に人間であるというだけで受け取ることができる。

To prove that you're a human, you visit an orb or a biometric verification device, and once you've verified your humanity, you receive a World ID.

自分が人間であることを証明するために、オーブや生体認証装置を訪れ、人間であることを確認すると、ワールドIDが発行される。

This lets you prove that you are a real and unique person online while remaining completely private.

これにより、完全にプライベートな状態を保ちながら、オンライン上で自分が実在するユニークな人間であることを証明することができる。

Curious what an orb looks like?

オーブがどんなものか興味がありますか?

Well, here's one right there, and I promise that's not me in the reflection there, even though it kind of looks like me.

さて、そこに1つありますね。私が反射していると思われるあの姿は約束しますが、私ではありません。

Now, if you're willing to verify that you're a human and not an AI, you'll receive a World ID and 25 of the crypto tokens that come along with it.

さて、もしあなたがAIではなく人間であることを証明してくれるなら、World IDとそれに付随する25の暗号トークンを受け取ることができる。

Insider describes it this way: The orb's camera lens scans your face and iris for about 10 seconds.

Insiderはこのように説明している: オーブのカメラレンズが約10秒間、あなたの顔と虹彩をスキャンします。

And then, beeps to confirm that you're a person rather than a robot.

そして、あなたがロボットではなく人間であることを確認するためにビープ音が鳴る。

It'll then beep again once it has added you to the world coins database.

そして、あなたが世界のコイン・データベースに登録されると、またビープ音が鳴る。

They also describe it this way: it was reminiscent of the photo ID Checkers you'd find at an airport, only instead of staring at a screen, you're made to look into a vaguely terrifying miniature Death Star.

空港で見かける写真付きのIDチェッカーを彷彿とさせるが、スクリーンを見つめるのではなく、どことなく恐ろしいデス・スターのミニチュアを覗き込まされるだけだ。

However, they do say during the process, they weren't required to hand over names, email addresses, or phone numbers.

ただし、その過程で名前やメールアドレス、電話番号の提出は求められなかったという。

It's just proof of humanity.

人間性の証明に過ぎない。

More than 2 million people have already signed up for the project, but I'm still somewhat unclear of what the tokens will be used for.

すでに200万人以上がこのプロジェクトにサインアップしているが、トークンが何に使われるのかについてはまだやや不明だ。

However, this article claims that Universal basic income is something that the OpenAI founder has hinted could be one of worldcoin's future applications, so we'll have to wait and see.

しかし、この記事によれば、ユニバーサル・ベーシック・インカムは、OpenAIの創設者がワールドコインの将来のアプリケーションのひとつになる可能性をほのめかしているという。

I'm curious, would you let one of these orbs scan your eyes?

気になるところだが、あなたはこのオーブに目をスキャンさせるだろうか?

Also, this week, the CEO of Spotify, Daniel Eck, talked about potential AI capabilities on Spotify.

また今週、SpotifyのCEOであるダニエル・エクが、SpotifyにおけるAI機能の可能性について語った。

Now, Spotify already has an AI DJ that can give you some information about his song, but it sounds like they're planning on using these AI-generated voices in part of the advertising platform as well.

現在、Spotifyにはすでに曲に関する情報を教えてくれるAI DJがいるが、広告プラットフォームの一部にもこうしたAIが生成した音声を使うことを計画しているようだ。

And Daniel Leck and Spotify have even filed for a patent for an AI-powered text-to-speech synthesis system, which is interesting because there are already so many tools that use this sort of technology, but I know little to nothing about patent law.

ダニエル・レックとスポティファイは、AIを使った音声合成システムの特許まで申請している。この種の技術を使ったツールはすでにたくさんあるので興味深いのだが、私は特許法についてはほとんど何も知らない。

If you're looking to get a job in AI, maybe think about going to Netflix.

AIの仕事に就きたいと考えているなら、Netflixに行くことを考えてみてはどうだろう。

Netflix is offering up to 900,000 for a single AI product manager role.

Netflixは、AIプロダクトマネージャー職1名に対して最大90万ドルを提供している。

The timing of this feels very interesting, seeing as all of the writers are on strike in Hollywood, all of the actors are on strike in Hollywood, and Netflix is out there saying we need somebody to run our AI platform.

このタイミングは非常に興味深いですね。ハリウッドの全ての脚本家がストライキをしていて、ハリウッドの全ての俳優もストライキをしている中、Netflixは私たちのAIプラットフォームを運営する人材を求めていると言っています。

We're willing to offer up to 900,000 dollars to have somebody help us build better AIS for Netflix.

Netflixのためにより良いAISを構築するのを手伝ってくれる人がいれば、最大90万ドルを提供するつもりだ。

So if you've watched that Black Mirror episode of Joan is awful, they're looking for the person who's gonna come in and actually build that technology for real for them, most likely.

ブラック・ミラー』の「ジョーンは最悪だ」のエピソードを見たことがあるなら、彼らはその技術を実際に構築してくれる人を探しているんだ。

I'm just guessing, I don't know what I'm talking about.

私はただ推測しているだけで、自分が何を話しているのかわかりません。

This week, Amazon held their AWS Summit in New York, and the topic of the event was mostly about AI.

今週、AmazonはニューヨークでAWSサミットを開催し、イベントのテーマは主にAIについてでした。

However, most of what they talked about is completely over my head, and it seemed like most of their announcements were geared towards Engineers who knew what they were talking about.

しかし、彼らが話したことのほとんどは私の頭には全く入ってこないし、彼らの発表のほとんどは、彼らが話していることを知っているエンジニア向けだったように思えた。

One thing I do know about though is that they are using more NVIDIA h100 gpus inside of their Cloud computers, making it easier and faster for models to be trained on Amazon's Cloud computers.

私が知っていることのひとつは、クラウドコンピュータにNVIDIA h100 gpusをより多く使用することで、アマゾンのクラウドコンピュータでのモデル学習をより簡単かつ高速にするということだ。

Also, at the event, they announced agents for Amazon Bedrock, which gives developers the capability to create fully managed agents in a few clicks.

また、イベントではAmazon Bedrock用のエージェントも発表され、開発者は数クリックで完全に管理されたエージェントを作成できるようになった。

Now, when they talk about agents, they're referring to AI applications that can perform multiple tasks and even do API calls to other services to continue to complete tasks.

エージェントについて語るとき、彼らは複数のタスクを実行し、タスクを完了し続けるために他のサービスにAPIコールをすることもできるAIアプリケーションを指している。

If you remember a few months back, we were talking about things like BabyAGI and various AI agents where you give it a task that you want it to complete.

数ヶ月前に話していたことを覚えているでしょうか?BabyAGIやさまざまなAIエージェントのことで、それに完了してほしいタスクを与えるような内容です。

And then, it figures out what sub tasks it needs to complete to get to that end goal of the final task.

そして、最終的なゴールであるタスクに到達するために、どのようなサブタスクをこなす必要があるかを判断する。

And it seems like with this announcement, Amazon's Bedrock has some of that Tech built into it also.

今回の発表で、アマゾンのBedrockにもそのような技術が組み込まれているようだ。

This week, a whole bunch of news publishers are coming together to try to sue the various AI companies for billions of dollars.

今週、多くのニュース出版社が集まって、様々なAI企業を数十億ドルで訴えようとしている。

Companies like IAC, the New York Times, News Corp, and Axel Springer are very close to forming a coalition to fight AI companies that use their data to train the models without consent.

IAC、ニューヨーク・タイムズ、ニューズ・コーポレーション、アクセル・スプリンガーといった企業は、同意なしにモデルのトレーニングにデータを使用するAI企業と戦うために、連合を結成するところまで来ている。

They claim that search was designed to find the best of the internet.

彼らは、検索はインターネットのベストを見つけるために設計されたと主張している。

These large language models or generative AI are designed to steal the best of the internet.

これらの大規模な言語モデルや生成的AIは、インターネットのベストを盗むために設計されている。

These news corporations are claiming that the value that they've been collected is running into the billions of dollars across the industry.

これらのニュースの企業は、産業全体で数十億ドルに上る価値を蓄積していると主張しています。

Now, nothing has totally come from this yet.

さて、この件からはまだ完全に何も生まれていない。

This is sort of an announcement of a potential announcement.

これは、発表の可能性の発表のようなものだ。

But news companies right now aren't very happy with the various AI platforms.

しかし、ニュース会社は今、様々なAIプラットフォームにあまり満足していない。

Alright, let's talk about some more fun stuff that's come out this week.

それでは、今週発表されたさらに楽しい情報について話しましょう。

This week, Stability AI announced sdxl 1.0.

今週、Stability AIはsdxl 1.0を発表した。

We've had sdxl 0.9 for a little bit now.

私たちはsdxl 0.9を少し前から使っていた。

They're finally ready to release the full 1.0 version, which boasts much more realistic images and also the ability to add text into the image.

彼らはついに完全な1.0バージョンをリリースする準備ができました。このバージョンはよりリアルな画像を提供し、また画像にテキストを追加することも可能です。

They also claim that you can use simpler language, so you don't need to necessarily be a prompt engineer to get amazing images out of it.

また、よりシンプルな言語を使用できるため、必ずしもプロンプトエンジニアでなくても素晴らしい画像を得ることができるとしている。

You should be able to use simple prompts to get quality outputs like they've done with the previous releases.

これまでのリリースと同じように、シンプルなプロンプトでクオリティの高いアウトプットを得ることができるはずだ。

They did make it available over on clip drop for us to play around with.

彼らは、クリップドロップでそれを利用できるようにしてくれた。

So supposedly, they're much more photorealistic and they work much better with using words.

それらは非常に写真のようで、言葉を使ってよりうまく機能すると言われています。

So let's test out an image that uses both a photorealistic woman standing on the beach holding a sign that says Future tools.

では、Future toolsと書かれた看板を持った、ビーチに立つ写実的な女性の画像をテストしてみよう。

This one almost got the sign right, right?

この画像は看板をほぼ正しく捉えていますよね?

I'm not sure how realistic this woman looks.

この女性がどれだけリアルに見えるかはわからない。

Here's another image that it gave me.

こちらは別の画像です。これもAIが提供してくれました。

This is probably the best one so far, although it does say Future tools and I'm not quite sure this is like a half skirt, half jean shorts that says Future tools.

これは、Future toolsと書いてあるのですが、半分スカートで半分ジーンズのショートパンツのようなもので、Future toolsと書いてあるのかどうかよくわかりません。

Here are some of the examples that they give.

彼らが提供する例のいくつかをご覧ください。

I want to see if I can generate a prompt similar to this one because this one actually looks pretty good.

このようなプロンプトを生成できるか試してみたいと思います。なぜなら、これは実際にかなり良さそうだからです。

Photo of a brooding, serious, bearded old.

陰気で真面目な髭面の老人の写真。

I'm assuming the word man was in there as well somewhere.

どこかにmanという単語も入っているはずだ。

And these are much better generations in my opinion.

そして、私の意見では、これらの方がずっと良い世代だ。

They definitely still have almost like a painting or digital art look to them.

彼らはまだ絵画やデジタルアートのような表情をしている。

I wouldn't say they're super realistic, but it's definitely a huge improvement over what we were getting out of the previous sdxl models.

超リアルとまでは言わないが、以前のsdxlモデルから得られるものよりは間違いなく大きな進歩だ。

Now, before anybody jumps into the comments and starts saying I'm prompting it incorrectly, this is just my first impression of it.

さて、誰かがコメントに飛び込んできて、私が間違った促し方をしていると言い始める前に、これは私の第一印象に過ぎない。

This is literally the first time I've tried sdxl 1.0.

私がsdxl 1.0を試したのは、文字通りこれが初めてだ。

I didn't test it prior to this recording, so I'm sure there's all sorts of other prompting tricks and ways to get much better images out of it.

この収録の前にテストしたわけではないので、他にもいろいろなプロンプトのトリックや、もっと良い画像を得る方法があると思う。

I just wanted to show off the fact that it's available.

私はただ、それが利用可能であるという事実を見せびらかしたかっただけだ。

You can go use it for free right now over at clipdrop.co.

clipdrop.coで今すぐ無料で使うことができる。

I'll link it up below and you can probably figure out all sorts of cool ways to generate amazing images with it.

下にリンクを貼っておくから、それを使って素晴らしい画像を生成するクールな方法をいろいろ考えてみてほしい。

And finally, the day that I'm recording this video, which is Thursday, the Adobe Photoshop beta version just rolled out a new feature called expand.

そして最後に、このビデオを録画している木曜日は、Adobe Photoshopのベータ版でexpandという新機能がリリースされた日です。

Now, if you have Adobe Creative Cloud or you have just Adobe Photoshop by itself, this only works in the beta version.

Adobe Creative Cloudをお持ちの方、またはAdobe Photoshop単体でお持ちの方は、ベータ版でしか使えません。

So if you go to the Creative Cloud app, make sure you're running Photoshop beta and not the normal version of Photoshop because the AI stuff is still in beta.

ですから、Creative Cloudアプリにアクセスする場合は、Photoshopの通常バージョンではなく、Photoshopベータ版を実行していることを確認してください。

But basically, what this allows us to do is we can pull an image into Photoshop.

しかし、基本的には、Photoshopに画像を取り込むことができます。

I'll pull this jellyfish image in that I made in Leonardo in one of my previous videos.

以前のビデオでレオナルドで作ったクラゲの画像を引っ張ってきます。

I'm going to zoom out a little bit.

少しズームアウトします。

And then, if I come up here to the crop tool, I can actually crop to a bigger size here like this.

そして、切り抜きツールを使って、このように大きなサイズに切り抜くことができます。

And then, there's a new button that says generative expand.

そして、生成的拡大という新しいボタンがあります。

In fact, let's set it on 16:9 just to expand it to a fairly standard size.

実際に16:9に設定して、かなり標準的なサイズに拡大してみましょう。

I'll try to center my image somewhat, and now I can click generative expand, leave this blank, and click generate.

そして、生成的拡大をクリックし、ここを空白のままにして、生成をクリックします。

It will try to fill in the gaps for me, and look at that, it just built on that existing image that I just had.

私のためにその間隔を埋めようとしてくれます。見てください、ちょうど先ほど持っていた既存の画像を基にして生成されました。

Now previously, you were able to do that by doing a selection.

以前は、選択範囲を使ってこれを行うことができました。

This just kind of saves us a few steps and lets us expand it.

しかし、この機能によって、いくつかのステップを省くことができ、拡大することができます。

And it does give us three options.

3つのオプションがあります。

There's another option, and there's another option.

別のオプションもありますし、別のオプションもあります。

And I can expand once again.

そしてもう一度拡大することができます。

Let's go ahead and pull this out this way, pull this down further this way, and see how it expands it even further.

これをこのように引き出して、さらにこのように引き下げて、さらに拡大する方法を見てみましょう。

And here's an option, here's an option, and here's an option.

そしてこちらがオプション、こちらがオプション、こちらがオプションです。

I think that one looks pretty dang cool.

これはかなりクールだと思います。

So, it started with this image here, expanded to this, expanded to this.

この画像から始まり、この画像に拡大され、この画像に拡大されました。

I'd say that's pretty sweet.

とても素敵だと思う。

I also came across this Twitter video here from Howard Pinsky where he shows that he actually pulled a video into Photoshop and it worked on his video.

また、Howard PinskyがTwitterで公開している動画があるのですが、彼が実際に動画をPhotoshopに取り込んだところ、うまくいったそうです。

Now, if you are going to do this with video, you gotta make sure you got it on a tripod so that the framing stays consistent.

では、これをビデオで行う場合は、フレーミングが一貫していることを確認するために三脚に取り付ける必要があります。

But they use this little trick in Photoshop beta to actually generate a video with expanded borders.

しかし、彼らはPhotoshopベータ版でこのちょっとしたトリックを使い、実際に拡大された境界線を持つビデオを生成した。

Now, anything could be easily transitioned into a TikTok or real-sized video.

これで、何でも簡単にTikTokやリアルサイズのビデオに移行できる。

What a week!

なんて一週間なんだ!

That's all I got for you.

それが私が提供できる全てです。

Hopefully, you learned something new.

何か新しいことを学べただろうか。

You found out about some cool stuff that you didn't know was happening.

あなたが知らなかったクールなことを発見したことでしょう。

If you like this kind of video, give it a thumbs up and maybe consider subscribing to this channel.

このようなビデオが好きなら、親指を立てて、このチャンネルに登録することを検討してほしい。

I put out new videos about what's going on in AI every single Friday and try to put some other cool tutorials and experiments throughout the week as well.

私は毎週金曜日にAIで何が起こっているのかについての新しいビデオを出し、週を通して他のクールなチュートリアルや実験も出すようにしている。

And I do my best to help people leverage all of the latest advancements in AI technology and tools.

また、AI技術やツールの最新の進歩を活用する手助けができるよう、最善を尽くしています。

Also, if you haven't already, check out futuretools.io.

また、まだの方はfuturetools.ioをチェックしてください。

This is where I curate all the latest Cool Tools that I come across.

ここでは、私が出会った最新のクールツールをキュレーションしています。

I keep the AI news section up to date pretty much every single day.

AIニュースのセクションは、ほぼ毎日更新しています。

It's one of the most up-to-date resources on AI news on the entire internet.

インターネット上で最も最新のAIニュース・リソースのひとつだ。

And if you don't want to keep up with it on a daily basis and you just want a weekly TLDR, join the free newsletter and once a week, I'll just break down the top level what you need to know about the coolest tools and the most important news that happened in AI for the week.

また、毎日更新するのが面倒で、毎週TLDRが欲しいという方は、無料のニュースレターに登録してください。週に一度、その週にAIで起こった最もクールなツールや最も重要なニュースについて、トップレベルの情報をお伝えします。

I also share a handful of YouTube videos with you and one cool way to make money with AI.

また、YouTubeのビデオや、AIでお金を稼ぐクールな方法も紹介します。

I send it every single Friday.

毎週金曜日にお届けしています。

You can find it over at futuretools.io and click on join the free newsletter.

futuretools.ioで無料ニュースレターに参加するをクリックしてください。

Once again, thank you so much for tuning in to this video.

改めて、このビデオにご視聴いただきありがとうございました。

Thank you so much to HubSpot for sponsoring this video.

このビデオのスポンサーになってくれたHubSpotに感謝します。

These sponsors really, really help me keep this channel going and allow me to make it my full-time job to stay in the loop with the latest AI news and AI tools.

これらのスポンサーのおかげで、このチャンネルを続けることができ、最新のAIニュースやAIツールの輪の中にいることを私のフルタイムの仕事にすることができます。

So, HubSpot, you're awesome.

HubSpot、あなたは素晴らしい。

Thank you so much for sponsoring this video.

このビデオのスポンサーになってくれて本当にありがとう。

I really appreciate it.

本当に感謝しています。

And I really appreciate you for watching this video and wanting to stay up to date with the latest news in AI technology.

そして、このビデオを見て、AIテクノロジーの最新ニュースを知りたいと思ってくれて本当にありがとう。

I just love nerding out about this stuff, and I love that there are so many other people out there like you that love nerding out about it with me.

私はこのようなことについてオタクになるのが大好きで、あなたのように私と一緒にオタクになるのが大好きな人がたくさんいることが大好きです。

So, thanks again for tuning in.

だから、チャンネルを合わせてくれて本当にありがとう。

I really, really appreciate you.

本当に、本当にありがとう。

I'll see you guys in the next video.

また次のビデオでお会いしましょう。

Bye. Thank you.

じゃあね。 ありがとう。

この記事が気に入ったらサポートをしてみませんか?