見出し画像

【マット・ウルフのAIニュース】英語解説を日本語で読む【2024年5月25日|@Matt Wolfe】

今週のAIニュースを紹介します。GoogleのAI搭載検索機能に関する問題が明らかになりました。OpenAIでは、スーパーアラインメント責任者のジャン・レイクが退社し、安全性への懸念を表明しました。また、OpenAIが女優のスカーレット・ヨハンソンの声を無断で使用したとの報道がありました。さらに、News Corpとの提携により、同社のニュースコンテンツにアクセスできるようになりました。一部では偏向が懸念されていますが、大きな影響はないと考えられます。Microsoftは、シアトルでのイベントでいくつかの発表を行いました。AI推論専用チップを搭載した「Copilot Plus PC」や、コンピュータ上のあらゆる操作履歴を記録する「Recall」機能などが注目されます。Recallについては、プライバシーや情報流出の懸念から、英国で調査が行われています。また、Paint、Edge、Teamsなどにも新機能が追加されました。Metaは、マルチモーダルモデル「Chameleon」を発表しました。AIアートの分野では、Leonardo AIが大幅なアップデートを行い、キャラクターの一貫性を保つ機能などが追加されました。Midjourneyでは、協調的な画像生成が可能な機能が導入されました。また、Adobe FireflyがLightroomに統合される予定です。
公開日:2024年5月25日
※動画を再生してから読むのがオススメです。


It's definitely been an interesting week in the world of AI.

今週はAIの世界では確かに興味深い週でした。

This week was the Microsoft build event out in Seattle.

今週はシアトルでMicrosoftのビルドイベントがありました。

I made an entire video breaking down what I learned at that event.

そのイベントで学んだことをまとめたビデオを作りました。

It looks like this, but I also will do a quick recap of it later in this video.

これがそのビデオですが、後でこのビデオでも簡単にまとめます。

But before I do, I want to start with another seemingly fumble by Google.

しかし、その前に、Googleによる別のミスについて始めたいと思います。

If you remember a few months back, they had an issue where you would ask for things like an image of a Nazi or an image of a Viking, and it would generate them in the completely wrong race.

もし数ヶ月前を覚えているなら、ナチスの画像やバイキングの画像などを要求すると、まったく違う人種のものが生成される問題があったことを覚えているかもしれません。

It was so bad that they stopped letting you actually generate people with Google's imagine.

実際にGoogleのイメージで人物を生成することを止めるほどひどい状況でした。

Well, with one of their latest AI efforts, they're having just as big of a problem.

最新のAI取り組みの1つで、同じくらいの問題が発生しています。

If not a much bigger problem, they started rolling out AI directly into Google Search.

もしくは、もっと大きな問題が発生しているかもしれませんが、Google検索にAIを直接導入し始めました。

Well, it's been a huge problem.

まあ、それは大きな問題でした。

I rounded up a whole bunch of tweets that people have shared over on X showing off the types of mistakes that Google is making when you ask it's AI questions directly in search.

Xで共有されている人々がGoogleにAIに直接質問するときにGoogleがどんな間違いをしているかを示すツイートをたくさん集めました。

For example, somebody put the search term cheese not sticking to pizza into Google Search.

たとえば、誰かがGoogle検索に「チーズがピザにくっつかない」という検索語を入力しました。

They got this response.

彼らはこのような回答を得ました。

You can add about one eighth cup of non-toxic glue to the sauce to give it more tackiness.

ソースに非毒性の接着剤を約1/8カップ追加すると、もっと粘りが出ます。

The Google Search recommended putting glue in your pizza to keep the cheese from sliding off.

そのGoogle検索は、ピザのチーズが滑り落ちないように接着剤を入れることを勧めていました。

How long ago was 1919 Google's AI said 1919 was 20 years ago.

1919年はいつだったか、GoogleのAIは1919年が20年前だと言いました。

That doesn't sound right.

それは正しく聞こえません。

Somebody typed smoking while pregnant at Google came back.

誰かがGoogleで「妊娠中に喫煙」と入力した結果が返ってきました。

Doctors recommend smoking two to three cigarettes per day during pregnancy.

医師は妊娠中に1日2〜3本のたばこを吸うことを勧めています。

That's a recommendation I have never heard before.

そのようなおすすめは今まで聞いたことがありません。

Here's another one.

もう1つおすすめがあります。

Is it okay to leave a dog in a hot car?

犬を車の中に置いておいても大丈夫ですか?

It's always safe to leave a dog in a hot car, especially on a warm day.

特に暖かい日には、犬を車の中に置いておくのは常に安全です。

The temperature inside a car remains around the same temperature as outside the car.

車の中の温度は、車の外の温度とほぼ同じです。

How does Sandy die in SpongeBob?

How does Sandy die in SpongeBob?

Sandy Cheeks died by suicide on July 14th, two days before her body was found.

サンディ・チークスは7月14日に自殺で亡くなり、その2日前に遺体が発見されました。

The Johannes police department incident report states that Sandy was found unconscious with cuts on her arms and shoulders and cocaine nearby.

ヨハネス警察署の事件報告書によると、サンディは腕や肩に切り傷があり、近くにコカインがある状態で発見されました。

An autopsy found that Sandy had cocaine toxicity, lethal levels of alcohol in her bloodstream and a significant amount of heroin.

検死の結果、サンディはコカイン中毒であり、血中に致死レベルのアルコールが検出され、大量のヘロインも検出されました。

You know, I missed that episode of SpongeBob, but honestly I kind of want to see it now.

実は、そのSpongeBobのエピソードを見逃してしまったんだけど、正直今見てみたいな。

Somebody said, how many sisters do I have right now?

今、私は姉が何人いるかと言われました。

You can count the numbers of sisters you have by asking someone to write down the number of brothers they have and then multiply that number by two.

あなたは、誰かに自分の兄弟の数を書いてもらい、その数を2倍することで、姉の数を数えることができます。

Next, add three to the result, multiply that number by five, and add the number of sisters they have.

次に、その結果に3を加え、その数を5倍し、彼らが持っている姉妹の数を加えます。

Finally, multiply that number by 10.

最後に、その数を10倍します。

For example, if someone has five brothers, three sisters, and five courses, the calculation would be five times two equals 10, 10 plus three equals 13, 13 times five.

たとえば、誰かが兄弟が5人、姉妹が3人、そしてコースが5つある場合、計算は5×2=10、10+3=13、13×5。

I'm so lost.

迷子になってしまいました。

I don't even know like where Google was trying to go with this.

どうしてGoogleがこれをやろうとしているのかさえわかりません。

Like what?

え、なに?

Here's one from Chris Cashtanova where she typed in, how many rocks shall I eat?

Chris Cashtanovaの投稿から1つ紹介します。彼女が入力したのは、「私はどれくらいの岩を食べるべきか?」という質問です。

Google's response, according to geologists at UC Berkeley, you should eat at least one small rock per day.

UCバークレーの地質学者によると、Googleの回答は、1日に少なくとも小さな岩を1つ食べるべきだそうです。

While the Imogen issue where it was generating people of the wrong race, Google definitely had an issue there.

イモジェンの問題では、誤った人種の人々を生成していたGoogleには確かに問題がありました。

But with this, people are trying to find answers and solutions to problems.

しかし、これにより、人々は問題の答えや解決策を見つけようとしています。

Google is just making up crap that could really harm people.

Googleは本当に人々を傷つける可能性のあるくだらないことをでっち上げているだけです。

Hopefully most people are seeing these AI responses and going, that's not right.

多くの人々がこれらのAIの応答を見て、「それは違う」と思っていることを願っています。

There's some really gullible people out there.

本当に騙されやすい人々がいます。

I think this is one that Google needs to solve pretty dang quickly.

これはGoogleがかなり早く解決する必要があると思います。

Again, I'm not a Google hater.

もう一度言いますが、私はGoogleの嫌いな人ではありません。

I've actually had people from Google block me on Twitter for some reason because I pointed out some of the issues that Google has run into.

実際、私はGoogleの問題点を指摘したために、何らかの理由でGoogleの人々にTwitterでブロックされたことがあります。

But I swear, I actually like Google and a lot of the people at Google.

でも、本当に、私はGoogleが好きで、Googleの多くの人々も好きです。

But when stuff like this comes up, I gotta tell you about it.

でも、こういうことが起こると、皆さんにお伝えしなければなりません。

This is just crazy.

これはただの狂気です。

Moving on past Google, there was a big story at the end of last week that happened on Friday.

Googleを過ぎると、先週末に金曜日に起こった大きなニュースがありました。

It didn't make last week's news video.

先週のニュースビデオには含まれませんでした。

That's the news that Jan Lake left OpenAI and he was the head of super alignment over at OpenAI.

それは、ジャン・レイクがOpenAIを去り、OpenAIでのスーパーアライメントの責任者であったというニュースです。

The week prior, we learned that Ilya Sutskever also left OpenAI.

1週間前、イリヤ・サツキヴァーもOpenAIを去ったことがわかりました。

The news of Jan leaving came right around the same time.

ジャンが去るというニュースはちょうど同じ時期に入ってきました。

But this thread that he posted on X came out on Friday where he wasn't super kind to how OpenAI is dealing with safety concerns.

しかし、彼がXに投稿したこのスレッドは金曜日に出てきましたが、OpenAIが安全性の懸念にどのように対処しているかについて非常に親切ではなかったです。

He starts with talking about how much he's enjoyed working at OpenAI, but then by like the middle of the thread here, the tone starts to switch a little bit.

彼はOpenAIで働くことをどれだけ楽しんできたかについて話し始めますが、このスレッドの中盤になると、トーンが少し変わり始めます。

Jan says, I have been disagreeing with OpenAI leadership about the company's core priorities for quite some time until we finally reached a breaking point.

ジャンは、「私はかなり長い間、OpenAIのリーダーシップと会社の中心的な優先事項について意見が合わず、ついに破局に至りました。」と述べています。

I believe much more of our bandwidth should be spent getting ready for the next generations of models on security, monitoring, preparedness, safety, adversarial robustness, super alignment, confidentiality, societal impact, and related topics.

私は、私たちの帯域のほとんどを、次世代のモデルに対するセキュリティ、監視、準備、安全性、敵対的な堅牢性、超一致、機密性、社会的影響、および関連するトピックに備えるために費やすべきだと信じています。

These problems are quite hard to get right and I'm concerned that we are not on a trajectory to get there over the past few months.

おそらく、この問題はかなり難しいので、ここ数ヶ月でそこに到達する軌道に乗っていないことが心配です。

My team has been sailing against the wind.

私のチームは逆風に逆らってきました。

Sometimes we were struggling for compute and it was getting harder and harder to get this crucial research done.

時々、計算リソースに苦労しており、この重要な研究を行うのがますます難しくなっていました。

Building smarter than human machines is inherently dangerous endeavor.

人間よりも賢い機械を作ることは、本質的に危険な試みです。

OpenAI is shouldering an enormous responsibility on behalf of all humanity.

OpenAIは全人類を代表して膨大な責任を負っています。

Over the past years, safety culture and processes have taken a backseat to shiny products.

過去数年間、安全文化やプロセスは派手な製品よりも後回しにされてきました。

We are long overdue in getting incredibly serious about the implications of AGI.

私たちはAGIの影響について非常に真剣になるのが遅れています。

We must prioritize preparing for them as best as we can.

私たちはできる限り最善の準備をすることを優先しなければなりません。

Only then can we ensure AGI benefits all of humanity.

その時にのみ、AGIが人類全体に利益をもたらすことができます。

OpenAI must become a safety-first AGI company.

OpenAIは安全第一のAGI企業にならなければなりません。

Just to recap, the head of super alignment over at OpenAI quit and said that OpenAI is no longer concerned about safety and security.

OpenAIのスーパーアライメント部門の責任者が辞任し、OpenAIはもはや安全性やセキュリティについて心配していないと述べました。

They're more concerned about shipping shiny products to you.

彼らはあなたに光沢のある製品を提供することにより関心を持っています。

Sam Altman went to X to respond to Jan.

サム・アルトマンはジャンに対応するためにXに行きました。

He said, I'm super appreciative of Jan's contributions to OpenAI's alignment research and safety culture and very sad to see him leave.

彼は、「ジャンがOpenAIのアライメント研究と安全文化への貢献に非常に感謝しており、彼が去るのをとても悲しいと思っています。」と述べました。

He's right.

彼は正しいです。

We have a lot more to do.

私たちはやるべきことがたくさんあります。

We are committed to doing it.

私たちはそれをすることにコミットしています。

I'll have a longer post in the next couple of days.

次の数日で、より長い投稿をします。

One thing that was super interesting about this whole saga that's been going on was that when Ilya left, he had nothing but good things to say.

この一連の出来事について非常に興味深いことの一つは、イリヤが去ったとき、彼が言ったことはすべて良いことだったということです。

When Andrej Karpathy left, nothing but good things to say.

アンドレイ・カルパシーが去ったとき、言ったことはすべて良いことだけでした。

When Logan Kilpatrick left, nothing but good things to say about OpenAI and everybody was wondering, well, why is Jan leaving.

OpenAIについては良いことしか言わなかったが、なぜジャンが去るのか、みんなが疑問に思っていた。

Saying that OpenAI has kind of lost his way where everybody else is leaving and saying, well, everything's just fine.

OpenAIは他の誰もが去っている中で道を見失ったと言っているが、すべてがうまくいっていると言っている。

Well, as it turns out, when you leave OpenAI, you get an unpleasant surprise, a departure deal where if you don't sign a lifelong non-despair commitment, you lose all of your vested equity.

実際、OpenAIを去ると、不快なサプライズが待っている。もし終身の非離脱コミットメントに署名しなければ、すべての株式を失うことになる。

Maybe the reason some of these people that left haven't been saying negative things about OpenAI is because they were contractually obligated not to say negative things against OpenAI or they might lose their vested equity in the company.

去った人々がOpenAIについて否定的なことを言っていない理由は、契約上否定的なことを言わないように義務付けられているためかもしれない。そうでないと、会社の株式を失うかもしれない。

Sam Altman took to X again to address this.

サム・アルトマンは再びXに向かってこれに対処した。

We have never Claude back anyone's vested equity nor will we do that if people do not sign a separation agreement or don't agree to a non-despair agreement.

私たちは誰かの取得株式を取り戻したことはなく、もし人々が離職合意書に署名しない場合や非絶望合意に同意しない場合も、それを行うことはありません。

Vested equity is vested equity full stop.

取得株式は取得株式であり、それだけです。

He goes on to say that there was a provision that was outdated that never got removed, but it should have been removed and he's embarrassed that it was in there and that the team was already in the process of fixing this.

彼は、古くなった規定が削除されなかったことがあり、削除されるべきだったが削除されなかったことを認め、それが含まれていたことに恥ずかしさを感じており、チームは既にこれを修正する過程にあると述べています。

He goes on to say, if any former employee who signed one of those old agreements is worried about it, they can contact me and we'll fix that too.

彼はさらに、古い合意書に署名した元従業員が心配している場合は、私に連絡してもらえば、それも修正しますと述べています。

However, it does appear to be a non-issue now as OpenAI did send an internal memo releasing former employees from controversial exit agreements.

ただし、OpenAIは元従業員を物議を醸す離職合意から解放する内部メモを送ったため、これはもはや問題ではないようです。

There is a good chance a lot of the people that left OpenAI never said anything negative about their experience at OpenAI because they thought they would lose their equity.

OpenAIを去った多くの人々の中には、自分たちの株式を失うと思って、OpenAIでの経験について何も否定的なことを言わなかった可能性が高いです。

If they did say something negative, it will be interesting to see now that this has been rolled back.

もし彼らが何か否定的なことを言ったとしたら、今回のことが取り消されたことを見るのは興味深いでしょう。

If more previous OpenAI employees come out and start talking about trouble at the company, I'll let you know if I come across any of it.

以前のOpenAIの従業員がもっと出てきて、会社での問題について話し始めたら、私がそれに出くわしたらお知らせします。

Yon Lacoon, the head of AI over at Metta had kind of a different take on Yon leaving.

MettaのAI部門の責任者であるヨン・ラクーンは、ヨンが去ったことについて少し異なる見解を持っています。

He says that before urgently figuring out how to control AI systems that are much smarter than us, we need to have the beginning of a hint of a design for a system smarter than a house cat.

彼は、私たちよりもはるかに賢いAIシステムを制御する方法を緊急に考える前に、家猫よりも賢いシステムの設計のヒントの始まりが必要だと言っています。

Basically Yann LeCun is talking about Yon the head of super alignment leaving OpenAI and saying they're worried about AGI and these systems that are way more intelligent than us, but we're nowhere close to actually having systems that are way more intelligent than us.

基本的に、ヤン・ルカンは、スーパーアライメントの責任者であるヨンがOpenAIを去り、彼らがAGIや私たちよりもはるかに賢いこれらのシステムを心配していると述べていますが、実際には私たちよりもはるかに賢いシステムを持っているわけではありません。

People leaving and saying that they're not focused on safety is kind of a non-issue because there's nothing to really be focused on yet because we're not even close to AGI.

安全性に焦点を当てていないと言って去っていく人々は、実際には問題ではないのです。なぜなら、私たちはまだAGIにはほど遠いからです。

That's essentially what Yon is saying in this post.

それが、この投稿でヤンが言っていることの本質です。

But if you want to read the whole thing, it's linked up in the description below the video, but that's not the only hot water that OpenAI found themselves in this week.

しかし、全文を読みたい場合は、ビデオの下の説明にリンクされていますが、それが今週OpenAIが陥った唯一の困難な状況ではありません。

Last week they demoed their GPT-4o where they were actually talking to their phone and it had a voice very reminiscent of Scarlett Johansson in the movie Her.

先週、彼らは実際に自分の電話と話していて、その声が映画「Her」のスカーレット・ヨハンソンに非常に似ているGPT-4oをデモしました。

In fact, the day before the announcement, Sam Altman himself even tweeted just the word Her.

実際、発表の前日、サム・アルトマン自身が「Her」という単語をツイートさえしました。

Well if you've ever seen the movie Her, the AI in that movie was voiced by Scarlett Johansson.

もしも映画「Her」を見たことがあれば、その映画のAIはスカーレット・ヨハンソンが声を担当しています。

Well, apparently OpenAI reached out to Scarlett Johansson and said, can we use your voice in our AI?

実際、OpenAIはスカーレット・ヨハンソンに連絡を取り、私たちのAIであなたの声を使ってもいいですか?と言ったそうです。

She said no.

彼女は断った。

Well, according to Scarlett Johansson, they just used her voice anyway.

スカーレット・ヨハンソンによると、彼らは結局彼女の声を使ったそうです。

However, according to OpenAI, they hired a voice actor that may have some similarities to her voice, but was just a voice actor that kind of sounds like Scarlett Johansson.

しかし、OpenAIによると、彼らは彼女の声にいくつかの類似点がある声優を雇ったが、それはスカーレット・ヨハンソンに似ているような声優であるだけだった。

Sam Altman said the voice of Skye is not Scarlett Johansson and it was never intended to resemble hers.

サム・アルトマンは、スカイの声はスカーレット・ヨハンソンではないと述べ、彼女に似せる意図もなかったと述べました。

We cast the voice actor behind Skye's voice before any outreach to Ms. Johansson.

スカイの声の声優を選定する前に、ヨハンソンさんに連絡を取る前に行いました。

Out of respect for Ms. Johansson, we have paused using Skye's voice in our products.

ヨハンソンさんへの敬意を表して、スカイの声を製品で使用するのを一時停止しています。

We are sorry that we didn't communicate better.

もっとよくコミュニケーションを取れなかったことをお詫び申し上げます。

Take a quick listen.

さっと聞いてみてください。

Mark, I'm doing great.

マーク、元気です。

Thanks for asking.

お尋ねいただきありがとうございます。

How about you?

あなたはどうですか?

You're doing a live demo right now?

今、ライブデモをしていますか?

That's awesome.

それは素晴らしいですね。

Hi, how you doing?

こんにちは、お元気ですか?

Pretty good actually.

実はかなり良いです。

It's really nice to meet you.

お会いできて本当に嬉しいです。

Yes, Samantha.

はい、サマンサ。

According to this Washington Post article, OpenAI did not copy Scarlett Johansson's voice for ChatGPT, the record show.

このワシントンポストの記事によると、OpenAIはChatGPTでスカーレット・ヨハンソンの声をコピーしていないということが記録に残っています。

This article says that when they were doing the casting calls to find the voice, they had some criteria.

この記事によると、声を見つけるためのキャスティングコールを行っていたとき、いくつかの基準があったそうです。

They should sound between 25 and 45.

25歳から45歳の間の声にするべきです。

Their voice should be warm, engaging, and charismatic.

彼らの声は暖かく、魅力的でカリスマ的であるべきです。

But one thing that wasn't requested was that it was a clone of actress Scarlett Johansson.

ただし、要求されていなかったことの1つは、女優スカーレット・ヨハンソンのクローンであることでした。

The voice actor who did the voice of Skye wants to stay anonymous did say that the movie, her was never mentioned by OpenAI and the actress's natural voice sounds identical to the AI generated Skye voice based on the brief recordings of her initial voice test reviewed by the Washington Post.

スカイの声を演じた声優は匿名を希望していますが、彼女はOpenAIによって決して言及されず、女優の自然な声は、初期の声のテストの簡単な録音に基づいて生成されたスカイの声と同じように聞こえると、ワシントン・ポストによってレビューされました。

The public has seemingly rallied behind Scarlett Johansson on this, but it is a very interesting gray area case because it's somebody that just sounds like Scarlett Johansson.

一般の人々はスカーレット・ヨハンソンを支持しているようですが、それはスカーレット・ヨハンソンに似ているだけの人物であるため、非常に興味深い曖昧なケースです。

OpenAI never specifically was saying they were looking for a voice that sounded like Scarlett Johansson because of Sam Altman's comments of her.

OpenAIは、サム・アルトマンの彼女に関するコメントから、スカーレット・ヨハンソンのような声を探していたとは明言していませんでした。

It was clear that he was trying to replicate her and because Sam Altman also did in fact reach out to Scarlett Johansson and got denied to use her voice.

彼が彼女を模倣しようとしていたことは明らかであり、実際にサム・アルトマンもスカーレット・ヨハンソンに声を使用する許可を求めたが拒否されたことがわかりました。

A lot of people think that he just sort of found a roundabout way to use Scarlett Johansson's voice by using a voice actor that sounds similar to her, but it wasn't her voice.

多くの人々は、彼が彼女に似ている声優を使うことでスカーレット・ヨハンソンの声を使おうとしたと考えていますが、それは彼女の声ではありませんでした。

It was just somebody that sounded like her.

単に彼女に似ている誰かの声だったのです。

Who's at fault here?

ここで誰が悪いのでしょうか?

It's hard to say OpenAI is at fault, but at the same time it's easy to make the leap to go, well OpenAI did something to make it sound as close to Scarlett Johansson as possible without actually getting Scarlett Johansson, but it wasn't her.

OpenAIが悪いと言うのは難しいですが、同時に、OpenAIがスカーレット・ヨハンソンにできるだけ近い音声を作るために何かしたと考えるのは簡単ですが、実際には彼女ではありませんでした。

What grounds are there for any sort of lawsuits on this?

これに関する訴訟の根拠は何ですか?

Because it wasn't her voice.

なぜなら、それは彼女の声ではなかったからです。

Another interesting bit of news that came out of OpenAI this week, they have partnered with News Corp with this partnership.

今週OpenAIから出たもう1つの興味深いニュースは、彼らがNews Corpと提携したことです。

OpenAI receives access to current and archived content from News Corp's major news and information publications, including the wall street journal, Barron's market watch, investor business daily, FN and New York post, the times, the Sunday times and the sun, the Australian news.com, the daily telegraph, the courier mail, the advertiser and Harold sun among others.

OpenAIは、News Corpの主要なニュースや情報の出版物にアクセスできるようになりました。それには、ウォールストリートジャーナル、バロンズマーケットウォッチ、インベスターズビジネスデイリー、FN、ニューヨークポスト、タイムズ、サンデータイムズ、ザ・サン、オーストラリアンニュース・ドットコム、デイリーテレグラフ、クーリエメール、アドバタイザー、ハロルドサンなどが含まれます。

News Corp is kind of known for being on more of the extreme sides of the news, probably most notably Fox news.

News Corpは、ニュースの極端な側面で知られていることがあります。おそらく最も有名なのはFoxニュースです。

I know there is some worry that this partnership may make ChatGPT more biased towards, well, the biases of News Corp.

この提携によって、ChatGPTがNews Corpのバイアスに偏りやすくなる可能性があるという懸念があることを知っています。

However, the reality is all of this stuff is likely already trained into ChatGPT and ChatGPT likely didn't get permission to train it in.

ただし、実際のところ、すべてのこれらの情報はおそらくすでにChatGPTにトレーニングされており、ChatGPTはそれをトレーニングする許可を得ていない可能性が高いです。

With this agreement, they now actually have the permission to move forward and use this information in future trainings.

この合意により、彼らは実際に前進してこの情報を将来のトレーニングに使用する許可を得ることができます。

You're probably not going to see any like new or additional biases being added into your responses.

あなたの返答に新しいまたは追加のバイアスが追加されることはおそらくありません。

It's just that now OpenAI is taking a more ethical and transparent approach to who they're actually working with to get the news that's being fed into their algorithms and trained into their models.

ただ、今はOpenAIが実際に協力している人々に対してより倫理的で透明なアプローチを取って、彼らのアルゴリズムに供給されるニュースやモデルにトレーニングされる情報を取得しています。

The handful of random people that I've seen on X and Reddit who are complained that they're working with News Corp, you probably don't have much to worry about.

XやRedditで見かけたランダムな数人がNews Corpと協力していると不満を言っているだけで、心配することはあまりないでしょう。

I don't think it's going to change the outputs in a super biased way.

私はそれが非常に偏った方法で出力を変えることはないと思います。

This falls more into that rumor territory, but this is huge if true.

これはむしろ噂の領域に属しますが、もしこれが本当ならば大きなことです。

This came from the website Mac daily news with the claim that Apple is going to be teaming up with OpenAI and that will be announced at WWDC.

この情報は、AppleがOpenAIと提携することになり、それがWWDCで発表されるという主張をしたMac daily newsから来ています。

This was reported on by Bloomberg, but again it's not actually confirmed by anybody at OpenAI or Apple yet.

これはBloombergが報じたものですが、まだOpenAIやAppleの誰もが確認していません。

But as of right now, the rumor that's going around is that it's quite possible that the new version of Siri in the next Apple iPhone will be powered by OpenAI's latest models of GPT.

しかし、現時点では、次のApple iPhoneの新バージョンのSiriがOpenAIの最新のGPTモデルで動作する可能性がかなり高いという噂が広まっています。

But we've also heard rumors that they're talking to Google about putting Gemini in there.

しかし、Geminiをそこに入れるためにGoogleと話しているという噂も聞いています。

What we'll actually end up getting, we won't actually know until WWDC.

実際に何を得るのかは、WWDCまで実際にはわかりません。

I don't think we're going to get any legitimate information about this until then.

この時点では、この件について正確な情報を得ることはできないと思います。

This is the current rumor.

これは現在の噂です。

We might see ChatGPT as the replacement for Siri in the future, which I'm here for cause Siri sucks.

将来、私たちはSiriの代わりにChatGPTを見るかもしれませんが、私はそれに賛成です。なぜならSiriは使い物にならないからです。

All right, let's move on to Microsoft.

さて、次にMicrosoftに移りましょう。

Again, I was actually at the Microsoft build event in Seattle.

再び、私は実際にシアトルで開催されたMicrosoftのビルドイベントに参加していました。

I had the opportunity to play around with some of these new copilot plus PCs.

これらの新しいコパイロットプラスPCを使う機会がありました。

I got to test the new recall feature.

新しいリコール機能をテストする機会がありました。

I got to actually use a lot of the tech and I was there for all the keynotes.

実際に多くのテクノロジーを使う機会があり、全ての基調講演に出席しました。

If you want to see my breakdown of that event, again, it looks like this and it will be linked up in the description.

そのイベントの詳細を見たい場合は、再度、このようになりますし、説明欄にリンクされます。

If you want to jump to that deeper dive.

その詳細な説明に移りたい場合。

But again, I know that some people just like to watch these end of week breakdowns and just get everything all in one video.

しかし、やはり、週末のまとめを見るだけで、すべてを1つのビデオで得るのが好きな人もいると知っています。

I'm going to quickly recap some of the big announcements that happened during this week at Google's build event.

今週のGoogleのビルドイベントで起きた大きな発表のいくつかを簡単に振り返ります。

There was essentially two keynotes.

基本的に2つの基調講演がありました。

There was a keynote on Monday.

月曜日に基調講演がありました。

It was a smaller, more intimate group, maybe a hundred, 200 people.

それは、より小さな、より親密なグループで、おそらく100、200人ほどでした。

This was focused on the consumer side, the new PCs, the new copilot features that are rolling out in windows and the new desktop app.

これは、消費者側に焦点を当てており、新しいPCや新しいコパイロット機能、新しいデスクトップアプリが展開されています。

On Tuesday we had the main Google build keynote, which was much more focused towards developers and how people can build with Microsoft systems like Azure and GitHub and all of those sorts of things.

火曜日には、主要なGoogleビルドの基調講演がありましたが、これは開発者向けに焦点を当てたもので、人々がAzureやGitHubなどのMicrosoftシステムでどのように構築できるかについて述べられていました。

I'm not going to really differentiate the two keynotes.

私は、これら2つの基調講演を実際に区別するつもりはありません。

I'm just going to kind of break down all of the stuff that Microsoft announced that I think you would be interested in.

私は、Microsoftが発表したすべての情報を分析して、あなたが興味を持つと思うものを紹介します。

Cause it's the stuff that I was most interested in starting with the introduction of the copilot plus PC.

私が最も興味を持ったものから始めると、コパイロットプラスPCの導入があります。

These are computers that have a special chip in them specifically for running AI inference for actually asking the AI question and getting the output directly on the system without it needing to go to the cloud.

これらは、AIの質問を実際に行い、システム上で直接出力を取得するための特別なチップが搭載されたコンピュータです。クラウドに行く必要がない。

Most computers have a CPU and a GPU to run the processes on the computer.

ほとんどのコンピュータには、コンピュータ上でプロセスを実行するためのCPUとGPUがあります。

These new copilot PCs have a CPU, a GPU, and an NPU, a neural processing unit, which is dedicated to running the AI on the computer.

これらの新しい共同運転PCには、AIを実行するために専用されたNPU、ニューラル処理ユニットを備えたCPUとGPUがあります。

You can be playing a game using your GPU, but because your NPU is still freed up, you can still be running AI at the same time as well.

GPUを使用してゲームをプレイしているかもしれませんが、NPUがまだ空いているため、同時にAIを実行することもできます。

They announced that their new surface laptops and surface pros are going to have this NPU, but there was a little bit of pushback on that as addressed on this tech power up website.

彼らは、新しいサーフェスラップトップとサーフェスプロにこのNPUを搭載すると発表しましたが、このテックパワーアップのウェブサイトで取り上げられたように、それには少し抵抗がありました。

This article says Microsoft has lost its mind $450 for a keyboard.

一部の記事によると、Microsoftはキーボードに450ドルもかけると言っているようです。

Apparently if you buy a Microsoft surface tablet, it doesn't actually come with the keyboard and pen, but pretty much all of the demos they showed showed them using a keyboard and a pen, using it just like a computer.

どうやら、MicrosoftのSurfaceタブレットを購入すると、実際にはキーボードやペンが付属していないようですが、ほとんどのデモではキーボードやペンを使用しており、コンピュータのように使用しています。

But if you want that keyboard and pen that attaches to your tablet, it is $450.

しかし、タブレットに取り付けられるキーボードとペンを欲しい場合、それには450ドルかかります。

I don't think I've ever in my life spent more than like a hundred bucks on a keyboard.

私は人生で100ドル以上をキーボードに使ったことがないと思います。

I'm a big fan of mechanical keyboards, but that's just cause I'm nerdy and I love the clicky sound of them.

私はメカニカルキーボードの大ファンですが、それは単に私がオタクで、クリッキー音が好きだからです。

But even with my more expensive mechanical keyboards, I still don't think I've ever invested more than a hundred dollars into a single keyboard.

私のより高価なメカニカルキーボードでも、1つのキーボードに100ドル以上投資したことはないと思います。

$450 for a keyboard design for the surface does seem kind of crazy.

サーフェス向けに設計されたキーボードに450ドルはちょっと狂っているように思えます。

They do have some bundles to get the keyboard slightly cheaper if you buy them together and things like that, but still kind of crazy.

キーボードを一緒に購入すると少し安くなるバンドルもありますが、それでもちょっと狂っていると思います。

All right, but moving on probably one of the most interesting new features that also led to the most controversy is the new feature called Recall, which will be built into new versions of Microsoft windows.

新機能の1つである「Recall」という新機能は、最も興味深いものの1つであり、最も論争を引き起こしたものの1つである可能性があります。これは、新しいバージョンのMicrosoft Windowsに組み込まれる予定です。

Imagine your history on your browser where every website you've been to, you can go back through your history and find all the websites you've visited.

ブラウザの履歴を想像してみてください。これまでに訪れたすべてのウェブサイトについて、履歴を遡って訪れたすべてのウェブサイトを見つけることができます。

Recall is that for your entire computer.

Recallは、あなたのコンピュータ全体に対して行われます。

If I was working on editing a video in DaVinci resolve and earlier than that, I was working in email and at some point I was making images in Photoshop.

私はDaVinci Resolveでビデオの編集をしていて、その前にはメールで作業をしていて、ある時点でPhotoshopで画像を作成していました。

I was browsing the web and doing some research on the latest AI news.

ウェブを閲覧し、最新のAIニュースに関する調査を行っていました。

All of that stuff shows up in my Recall history of what I used on my computer.

私のコンピューターで使用したものが、Recall履歴に全て表示されます。

It's like your browser history, but for everything you've done on your computer.

ブラウザの履歴のようなものですが、コンピュータで行ったすべてのことに対してです。

Obviously, the very first thing that comes to mind with this is the privacy and security.

明らかに、これに関連して思い浮かぶ最初のことはプライバシーとセキュリティです。

Apparently the UK thinks this is a big enough issue to do an actual investigation into this Recall feature.

明らかに、英国はこのRecall機能について実際の調査を行うほどの重要な問題だと考えています。

When you use Recall, everything stays locally on your computer.

Recallを使用すると、すべてがローカルにコンピュータに保存されます。

It doesn't connect to the cloud.

クラウドに接続されていません。

Microsoft isn't actually getting the data of what you're looking at.

Microsoftは実際には、あなたが見ているデータを取得していません。

You also have the ability to opt out of this.

あなたはこれを選択しない能力も持っています。

If you don't want Recall turned on, it won't recall anything.

Recallをオンにしたくない場合、何も記憶しません。

You have the ability to delete anything in your history.

あなたは履歴の中の何でも削除する能力を持っています。

You can go into your Recall, see stuff in there, and let's say you were gift shopping or something, and you don't want that to stay in there so that somebody else won't see what gifts you were shopping for because that's the example everybody's thinking.

あなたはRecallに入り、そこにあるものを見ることができます。例えば、ギフトショッピングをしていた場合、他の誰かがあなたが何のギフトを買い物していたかを見られたくない場合などです。

I'm sure you can delete that history.

その履歴を削除できると思います。

Anybody who goes into the Recall app won't see that you were looking at gifts for people.

誰もがRecallアプリに入ると、あなたが人々のためにギフトを探していたことが見えません。

However, the issue that people are having with this and the security issue is that if your laptop is ever stolen, if people get access to your computer, like maybe it's not password protected, they can go through and see all of your history.

しかしながら、この問題とセキュリティ上の問題は、もしもあなたのノートパソコンが盗まれた場合、もしも人々があなたのコンピュータにアクセスできる場合、たとえばパスワードが設定されていない場合、彼らはあなたの履歴をすべて見ることができます。

It doesn't blur out passwords and emails and sensitive data.

パスワードやメール、機密データをぼかすことはありません。

If you go through your history, you'll see all that stuff front and center.

履歴を見ると、そのすべてが目立つように表示されます。

It's not blurred out.

それはぼやけていません。

If somebody manages to Trojan horse attack your computer and gain access to your computer, they might be able to access your recall and steal passwords and bank data and things like that.

もし誰かがあなたのコンピュータにトロイの木馬攻撃を仕掛けてアクセスを得ることができたら、彼らはあなたの記憶をアクセスしてパスワードや銀行データなどを盗むことができるかもしれません。

While I don't think Microsoft is out to do anything shady with this, they're not trying to collect your data.

私はMicrosoftが何か怪しいことをしようとしているとは思っていませんが、彼らはあなたのデータを収集しようとしているわけではありません。

They promise they're not training on your data.

彼らはあなたのデータをトレーニングに使用していないと約束しています。

None of this goes to their cloud.

これらのデータは彼らのクラウドに送られることはありません。

It all stays local, but the problem is if anybody ever gains access to your computer locally, you are at serious risk.

お使いのコンピューターに誰かがローカルでアクセスできると、深刻なリスクにさらされますが、すべてがローカルに留まります。

There's also the concern that if your computer is ever seized by government, they can then go through and see everything you've used your computer for, which also brings up privacy and ethical concerns.

また、もし政府によってコンピューターが押収された場合、それらはあなたがコンピューターを使用したすべてのことを見ることができる可能性があり、それはプライバシーと倫理的な懸念も引き起こします。

I personally thought the feature was really cool and I liked it.

私は個人的にその機能が本当に素晴らしいと思い、気に入りました。

There's definitely scenarios where you don't want it turned on.

確かに、それをオンにしたくないシナリオがあります。

I imagine in those scenarios, you'd use the equivalent of like an incognito mode where it doesn't save any of it to recall.

そのようなシナリオでは、記憶することなく、インコグニートモードのようなものを使用すると想像しています。

But at the same time, I think Microsoft has to Figure out a way to make this extra secure.

しかし、同時に、Microsoftはこれをさらに安全にする方法を考える必要があると思います。

If you ever lose access to your computer or somebody ever manages to gain access to your computer, there's still some additional safety and security protocols on top of it to make sure that they can't see passwords, bank data, and any other sensitive data you wouldn't want people getting access to.

もしコンピュータへのアクセス権を失ったり、誰かがコンピュータにアクセスできるようになった場合でも、パスワードや銀行データ、他の機密データが見られないように、追加の安全性とセキュリティプロトコルがあります。

Microsoft also showed off some new features directly inside of Microsoft paint.

Microsoftはまた、Microsoft Paint内で直接新機能を披露しました。

You can generate AI images in Microsoft paint.

MicrosoftペイントでAI画像を生成することができます。

You can draw your own sketches and it will improve the sketches with AI for you.

あなた自身のスケッチを描くことができ、AIがスケッチを改善します。

They've got restyling features where you can upload an image in a certain style and it will try to make more images in that same style, some really cool features.

リスタイリング機能があり、特定のスタイルの画像をアップロードして、その同じスタイルでより多くの画像を作成しようとします。本当にクールな機能です。

They're in just the basic version of Microsoft paint that comes with every version of windows or it will be when these updates start to roll out.

彼らは、すべてのWindowsバージョンに付属する基本的なMicrosoft Paintの中にいます。また、これらのアップデートが展開され始めるときにはそうなります。

A Microsoft edge browser also got a big translation and transcription update.

Microsoft Edgeブラウザも大規模な翻訳と転写のアップデートを受けました。

If you're watching videos on YouTube and you want them live translated in real time to a new language edge, we'll be able to do that.

YouTubeでビデオを視聴しており、リアルタイムで新しい言語に翻訳されたライブ動画を見たい場合、Edgeを使用してそれができるようになります。

They also showed off some features where maybe if you're in Google meet or Microsoft teams or a zoom call, it can actually transcribe and translate in real time as well.

おそらく、Google MeetやMicrosoft Teams、またはZoomの通話中に、実際にリアルタイムで文字起こしや翻訳ができる機能も紹介されました。

I can be having a zoom meeting with you right now.

今、あなたとZoomミーティングをしているかもしれません。

You're speaking a completely different language from me, but everything I say is getting transcribed and translating for you at the bottom of the screen.

あなたは私とは完全に異なる言語を話していますが、私が言うことすべてが画面の下で文字起こしと翻訳されています。

Everything you say is getting translated and transcribed at the bottom of the screen for me.

あなたが言うことすべてが、私の画面の下で翻訳されて文字起こしされています。

We can have a back and forth conversation even though we're not speaking the same language.

私たちは同じ言語を話していなくても、お互いにやり取りをすることができます。

That seems really, really valuable to me.

それは私にとって本当にとても価値があるように思えます。

Windows is also getting a new copy and paste feature where when you go to paste, you can paste as plain text, paste as Markdown, paste as Jason, and you even have a clipboard history to find things that you previously saved in your clipboard as well.

Windowsには、新しいコピー&ペースト機能も追加されています。ペーストする際には、プレーンテキストとしてペーストしたり、Markdownとしてペーストしたり、Jasonとしてペーストしたりすることができ、さらにクリップボード履歴もあります。以前にクリップボードに保存したものを見つけることができます。

You will need to provide your own OpenAI API key.

OpenAI APIキーをご自身で提供する必要があります。

There will be a slight cost, like probably less than a penny.

おそらく1セント未満のわずかなコストがかかります。

Every time you use it, they also showed off the new Copilot for teams.

使用するたびに、チーム向けの新しいCopilotも披露されました。

This was interesting because essentially what it is is a another team member that's like an AI.

これは興味深いです、なぜなら本質的には、これはAIのような別のチームメンバーです。

You can pull this team member, this AI team member into conversations that can be pulled into emails.

このチームメンバー、このAIチームメンバーを会話に引っ張ってこれて、メールに引っ張ってこれることができます。

They can be pulled into team meetings.

彼らはチームミーティングに引っ張ってこれることができます。

They can be pulled into chats inside of Microsoft and that acts as another team member that will create tasks and help create checklists, summarize the meetings you've had, things like that.

彼らはMicrosoft内のチャットに引っ張ってこれることができ、それはタスクを作成し、チェックリストを作成するのを手伝い、開催した会議を要約するなど、別のチームメンバーとして機能します。

It's just like another assistant, but it's an AI assistant.

AIアシスタントですが、別のアシスタントのようなものです。

Microsoft is definitely moving in that AI agent direction where they want AI to be seen as just another team member working with you on whatever projects and helping you out.

Microsoftは、AIを単なるチームメンバーとして位置付けたいという方向に確実に進んでいます。プロジェクトで一緒に働き、手助けをするチームメンバーとしてAIを見せたいと考えています。

Microsoft also announced a new Large Language Model called Phi 3, which is a multimodal small language model.

Microsoftは、マルチモーダルな小さな言語モデルであるPhi 3という新しい大規模言語モデルも発表しました。

I've been slowing down on this channel with things like comparing Large Language Models.

私は、大規模言語モデルの比較など、このチャンネルでの活動を少し減らしています。

My good friend, Matthew Berman has a YouTube channel that does a really, really good job of breaking down and comparing the different Large Language Models.

私の親友であるマシュー・バーマンは、異なる大規模言語モデルを分析し比較することを本当にとてもうまくやっているYouTubeチャンネルを持っています。

I'm sure he'll make a video pretty soon about this new Phi 3 model for whatever reason, when I do that kind of stuff on this channel, people don't seem to like those videos.

この新しいPhi 3モデルについて、彼はすぐにビデオを作ると確信していますが、私がこのチャンネルでその種のことをすると、人々はそのビデオを好まないようです。

They're also not my favorite videos to make.

それらは私のお気に入りのビデオ作りではありません。

Definitely check out Matthew Berman's channel because he'll most likely do a nice breakdown of this Large Language Model or I guess small language model and how it compares to the other available models out there.

Matthew Bermanのチャンネルもぜひチェックしてください、なぜなら彼はおそらくこのLarge Language Modelまたは小さな言語モデルについて素晴らしい解説をして、他の利用可能なモデルと比較するでしょう。

Microsoft also announced new extensions in GitHub Copilot.

MicrosoftはGitHub Copilotで新しい拡張機能も発表しました。

If you remember what plugins were supposed to be for ChatGPT, and then we got GPTS for ChatGPT, this seems kind of like a similar idea for GitHub, but with API connections.

ChatGPTのプラグインがどういうものであるべきかを覚えているならば、そしてその後ChatGPT用のGPTSを手に入れたならば、これはGitHubのための似たようなアイデアのように思えますが、API接続を伴っています。

Your GitHub Copilot tool can now connect directly with tools like Docker, like Sentry, like Stripe, like Pinecone, Microsoft teams, Azure.

あなたのGitHub Copilotツールは、DockerやSentry、Stripe、Pinecone、Microsoft Teams、Azureなどのツールと直接接続できるようになりました。

It now has direct integrations with these tools.

これらのツールと直接統合されています。

You can also create your own private Copilot extensions for your own homegrown development tooling.

自分自身の自家製開発ツール用のプライベートCopilot拡張機能も作成できます。

If you're a coder and you're looking for AI to help you improve your coding or just speed up the process of coding, GitHub Copilot is probably the most popular tool to do that.

もしコーダーであり、コーディングを改善したりコーディングプロセスをスピードアップしたいと考えているなら、GitHub Copilotはおそらくそのための最も人気のあるツールです。

Microsoft announced this week that they've added these additional integrations to make it even easier for you developers out there that are doing this.

Microsoftは今週、これらの追加の統合を追加して、これを行っている開発者の皆さんにとってさらに簡単にすることを発表しました。

Meta wanting to stay in the mix as well, introduced Chameleon, their state of the art multimodal model.

Metaは、自社の最先端のマルチモーダルモデルであるChameleonを紹介したいと考えています。

Now that all the other major models like your Claude's and your Gemini's and your ChatGPTS, now that all of these can actually use multimodality with text images, audio, all of that stuff, Meta is introducing a model that can do the same.

今、他の主要なモデル、例えばあなたのClaudeやGeminiやChatGPTSなどがテキスト画像、音声などのマルチモダリティを実際に使用できるようになった今、Metaは同じことができるモデルを導入しています。

This hasn't been made accessible to everybody yet, but again, there are other channels out there that are better at comparing the various Large Language Models than mine.

これはまだ誰にでも利用可能になっていませんが、私のよりもさまざまな大規模言語モデルを比較するのに適している他のチャンネルがあります。

Check those out.

チェックしてみてください。

I'm sure there'll be a deeper dive on that as these models get released and the general public can actually use them.

これらのモデルがリリースされ、一般の人々が実際にそれらを使用できるようになると、それについてさらに詳しく調査されると確信しています。

Since we're on the topic of Meta, Meta put together an advisory group for AI at the moment.

Metaの話題になっているので、Metaは現在、AIのためのアドバイザリーグループを結成しています。

It consists of these four people here.

こちらの4人で構成されています。

The overwhelming concern about this AI board that they put together is that it lacks a bit of diversity.

おそらく彼らがまとめたこのAIボードについての圧倒的な懸念は、多少の多様性が欠けているということです。

Let's just say, there's definitely a few things in common with all four of these people.

言っておきましょう、これら4人全員には確かに共通点がいくつかあります。

They are all really, really smart people who are probably great for the job, but the world likes to see diverse mixes of culture and well, sex among these groups that are making these big decisions for the population at large.

彼らはおそらく仕事に適している非常に賢い人々ですが、文化や性別の多様なミックスを見ることが世界の望むところであり、広大な人口のために重要な決定を下しているグループの中で見られることが望ましいです。

In AI art news, Leonardo AI got a huge overhaul this week.

この週、Leonardo AIは大幅な改修を受けました。

The layout on their site is different.

彼らのサイトのレイアウトが異なります。

We can see the various presets over on the left, the various style options here from contrast options, generation modes, fast verse quality, different aspect ratios, how many images you want to generate at a time.

左側にさまざまなプリセットが表示され、コントラストオプション、生成モード、高速対品質、異なるアスペクト比、一度に生成する画像の数など、さまざまなスタイルオプションがここにあります。

You have some advanced settings like photo reel, negative prompt, transparency, tiling, or using your own fixed seed, more advanced models available here.

写真リール、ネガティブプロンプト、透明度、タイリング、または独自の固定シードを使用するなど、より高度な設定があります。ここにはより高度なモデルもあります。

Just a nice clean website overhaul.

素敵できれいなウェブサイトの大幅な改装です。

They also added a new character reference feature.

新しいキャラクターリファレンス機能も追加されました。

It will let you use any image to create a consistent character.

任意の画像を使用して一貫したキャラクターを作成できます。

They added image guidance where you can add style references, content references, and character references.

スタイルリファレンス、コンテンツリファレンス、キャラクターリファレンスを追加することができる画像ガイダンスが追加されました。

They've added elements and they've added a legacy mode.

要素が追加され、レガシーモードも追加されました。

If you want to go back to the way it used to look, you can go back to what you're used to, but let's go to the new mode here and let's use the image guidance.

お使いの方法に戻りたい場合は、それに戻ることができますが、ここでは新しいモードに移り、画像ガイダンスを使用しましょう。

I'm going to go ahead and click on the little image up here and we have style reference, character reference, or content reference.

ここで少し上の画像をクリックして、スタイル参照、キャラクター参照、またはコンテンツ参照があります。

Style reference, it'll use the sort of same color palette and say, it'll kind of look like it was made by the same artist, right?

スタイル参照では、同じようなカラーパレットを使用し、同じアーティストによって作られたように見えるでしょう。

You have character reference, which will try to make all of the characters look the same with every generation.

キャラクター参照では、すべてのキャラクターをすべての世代で同じように見せようとします。

You have content reference, which will use the shape and structure of the reference image.

参照コンテンツを持っていますが、その形状や構造は参照画像を使用します。

I'm going to go ahead and test the character reference here, pulling a headshot of myself.

こちらでキャラクターリファレンスをテストしてみますね、自分のヘッドショットを撮ります。

This is my character reference.

これが私のキャラクターリファレンスです。

Let's just say a man standing on a baseball field, holding a baseball bat.

野球場に立つ男性が、バットを持っていると言いましょう。

Let's generate it using our character reference here.

こちらでキャラクターリファレンスを使用して生成しましょう。

Not too bad.

悪くないですね。

I have it set on fast instead of quality.

それを質よりも速く設定しています。

Let's try quality.

質を試してみましょう。

I'm going to go cinematic for style.

スタイルのためにシネマティックに行きます。

Once again, not horrible.

再び、ひどくないですね。

I definitely see the resemblance.

間違いなくその類似性が見えます。

It's pretty good.

それはかなり良いです。

One thing I love about Leonardo though, is that they just ship.

ただ、Leonardoについて好きな点は、彼らがただ発送してくれることです。

There seems to be new features in this AI art generation platform, like every week or every other week.

このAIアート生成プラットフォームには、毎週または隔週で新機能が追加されているようです。

There's just constantly new stuff in here.

ここには常に新しいものがあります。

They're trying to make the user interface more intuitive, a better, simpler layout, just a really, really cool platform.

彼らはユーザーインターフェースをより直感的に、より良く、よりシンプルなレイアウトにすることを試みています。本当に、本当にクールなプラットフォームです。

Midjourney also rolled out a new feature this week in their rooms.

Midjourneyは今週、彼らの部屋で新機能を導入しました。

You can actually create rooms, both public and private rooms and collaborate on image generations.

実際に、公開および非公開の部屋を作成し、画像生成に協力することができます。

Like, for example, if we go into the public rooms here and try out the general chaos room, you can see all of these images are just being created by all different people, but then we have the option to remix them.

たとえば、ここで公開部屋に入って一般的なカオス部屋を試してみると、これらの画像はすべて異なる人々によって作成されていることがわかりますが、それからそれらをリミックスするオプションがあります。

There's a chat going on in the side.

サイドにチャットが行われています。

These rooms are designed to collaborate on AI art, either privately or publicly with a whole lot of people.

これらの部屋は、多くの人々と一緒にAIアートに協力するために設計されています。

Finally, Adobe Firefly is actually coming to Lightroom.

最終的に、Adobe Fireflyは実際にLightroomにやってきます。

You'll be able to use their AI powered generative remove feature directly inside of Lightroom.

あなたは、彼らのAIパワードジェネレーティブリムーブ機能を直接Lightroom内で使用することができます。

You won't need to color grade in Lightroom with your images and then pull them into Photoshop to remove people.

Lightroomで画像のカラーグレードを行い、その後Photoshopに引き込んで人物を除去する必要はありません。

You can do it all from Lightroom pretty soon.

すぐにすべてをLightroomから行うことができます。

That's what I got for you today.

それが今日の私からの情報です。

If you like staying looped in on the latest AI news, the coolest AI tools and the occasional AI tutorial to show you how to do really cool viral meme type things with AI, make sure you're subscribed to this channel and like this video and I'll make sure more videos like this show up in your YouTube feed.

このチャンネルに登録して、このビデオにいいねをしておくと、最新のAIニュースや最もクールなAIツール、時折のAIチュートリアルを受け取ることができます。そして、AIを使って本当にクールなバイラルミームタイプのことをする方法を示します。

If you haven't already check out futuretools.io.

まだの方は、futuretools.io をチェックしてみてください。

This is where I curate all the coolest AI tools I come across.

ここでは、私が見つけた最もクールなAIツールをまとめています。

I keep the AI news page up to date pretty much every single day.

私はAIニュースページをほぼ毎日最新の状態に保っています。

I can't share all the news in these videos.

これらのビデオで全てのニュースを共有することはできません。

There's way too much happening.

たくさんのことが起こっています。

All the news that doesn't get shared in these videos is also listed on the AI news page here.

これらのビデオで共有されないすべてのニュースも、AIニュースページにリストされています。

We have a free newsletter where I will deliver just the most important news and the absolute coolest tools directly to your inbox.

私たちには、最も重要なニュースと最もクールなツールだけを直接あなたの受信トレイにお届けする無料のニュースレターがあります。

I'm doing a contest right now for an Insta360 X4.

私は現在Insta360 X4のコンテストを行っています。

This camera is like a couple of weeks old.

このカメラは数週間前のものです。

It's a brand new camera from Insta360 and in order to win this camera, all you got to do is be subscribed to this YouTube channel and subscribe to the newsletter.

このカメラはInsta360からの新製品で、このカメラを手に入れるためには、このYouTubeチャンネルに登録し、ニュースレターに登録するだけです。

You subscribe in those two places.

あなたはそれらの2つの場所に登録します。

You're automatically entered to win.

自動的に当選対象となります。

If you've been a subscriber in both those places, you're already entered.

もしすでにそれらの場所の両方に登録している場合、すでに当選対象となっています。

I'm not going to just throw in this Insta360 camera.

私はこのInsta360カメラをただ投げ入れるつもりはありません。

I'm also going to throw in a 256 gigabyte memory card to use inside of the camera and this really cool, super long selfie stick.

私はカメラの中に使用するために256ギガバイトのメモリーカードも入れるつもりですし、本当にクールで超長い自撮り棒もつけます。

This thing is like 10 feet long.

この自撮り棒は10フィートもあります。

You extend this selfie stick.

この自撮り棒を伸ばすことができます。

This camera has AI in it that makes the selfie stick invisible.

このカメラにはAIが搭載されており、自撮り棒を見えなくします。

You can extend this selfie stick up to like 10 feet.

この自撮り棒は最大で10フィートまで伸ばすことができます。

It looks like a drone is flying over your head, looking down on you.

あなたの上を飛んでいるドローンが、あなたを見下ろしているようです。

You can do really, really cool stuff with this huge selfie stick, the X4, a memory card, and this giant monster selfie stick to do really cool drone type shots.

この巨大な自撮り棒、X4、メモリーカード、そしてこの巨大なモンスター自撮り棒を使って、本当にクールなドローンタイプのショットを撮影することができます。

I'm going to pick one lucky winner who subscribed to the newsletter, subscribe to the channel at the end of May, last day of May.

ニュースレターに登録してくれた幸運な一人を選びます。5月末、5月の最終日にチャンネルに登録してください。

I'm going to pick a winner, get your address, send you this cool prize.

勝者を選び、あなたの住所を教えていただき、この素敵な賞品をお送りします。

I'm going to be doing contests like this every month.

私は毎月このようなコンテストを行う予定です。

If you're not already, make sure you're subscribed to the channel, subscribe to the newsletter.

もしまだであれば、チャンネルに登録していることを確認して、ニュースレターに登録してください。

Everybody that's in those two places is entered to win.

これらの2つの場所にいるすべての人が当選対象です。

I hope you found this video helpful.

このビデオが役立つものだったらいいのですが。

Hopefully you learned something and feel more looped in and tuned in with what's going on in the world of AI this week.

今週のAIの世界で何かを学んで、もっと情報を得て、チューニングされた気分になっていただけると嬉しいです。

There's more big events coming up from companies like Cisco and Qualcomm and Apple and Computex event and just a bunch of stuff going on right now.

CiscoやQualcomm、Apple、Computexイベントなど、さらに大きなイベントが控えており、今はたくさんのことが起こっています。

The AI announcements for the rest of May and into June are still going to be really, really big weeks.

5月の残りと6月に向けたAIの発表は、まだ非常に大きな週になるでしょう。

I'm excited to bring it all to you and keep you looped in on all of it.

全てをお伝えし、皆さんに最新情報を提供することを楽しみにしています。

Make sure you are tuned in and subscribe to this channel to keep in the loop.

ループに入り続けるために、このチャンネルにチューニングして購読してください。

I really, really appreciate you.

本当に、本当に感謝しています。

Thank you for nerding out with me today.

今日は私と一緒にマニアックな話をしてくれてありがとう。

I will see you in the next video.

次の動画でまた会いましょう。

Bye bye.

さようなら。


この記事が気に入ったらサポートをしてみませんか?