見出し画像

【Safe Superintelligence Inc.:イリヤ・サツキヴァーの新会社が目指す未来】英語解説を日本語で読む【2024年6月20日|@Wes Roth】

AI分野で最も神秘的な人物の一人、イリヤ・サツキヴァーは、OpenAIやGPT-4の開発に大きく貢献し、サム・アルトマンやイーロン・マスクからも高く評価されています。昨年11月に起きたOpenAIのクーデターでは重要な役割を果たし、常に注目の的となっています。最近、彼は、AGI(汎用人工知能)ではなく、ASI(超知能)を開発するために新しい会社を設立していたのです。その名もSSI。SSIの目標は、革命的なブレークスルーを通じて安全な超知能を開発することです。SSIはアメリカの企業で、パロアルトとテルアビブに拠点を構え、トップ技術者を集めています。共同創設者には、エンジニア兼投資家のダニエル・グロスと、スタンフォード大学出身のダニエル・レヴィがいます。イリヤは、OpenAIやGoogle、Anthropicといったライバル企業が直面する外部のプレッシャーから解放された環境で、安全な超知能の開発に集中する意向です。彼のビジョンは、リベラル民主主義の原則に基づくAIを作り上げることです。彼が目指すシステムは、現在の対話型AIを超えて、より汎用的で拡張性のある能力を持つものです。彼の目標がどれほど現実的かはまだ未知数ですが、彼の決意とビジョンはAI分野に新たな展望をもたらしています。
公開日:2024年6月20日
※動画を再生してから読むのがオススメです。


We definitely will be able to create completely autonomous beings with their own goals.

私たちは確かに、独自の目標を持つ完全に自律した存在を創造することができるでしょう。

It will be very important, especially as these beings become much smarter than humans, as the goals of these beings be aligned with our goals.

特に、これらの存在が人間よりもはるかに賢くなるにつれて、これらの存在の目標が私たちの目標と一致することが非常に重要になります。

This is one of the more mysterious figures in the AI space.

これはAIの分野で最も神秘的な人物の一人です。

Ilya Sutskever, or Sutskever, however you want to pronounce that, he was likely one of the biggest contributors to the development of OpenAI and GPT-4, hailed by Sam Altman, Elon Musk and others for his brilliance in the field of AI.

イリヤ・サツキヴァー、またはスーツキヴァー、どちらでも発音していただいて構いませんが、彼はおそらくOpenAIやGPT-4の開発に最も貢献した人物の一人であり、サム・アルトマンやイーロン・マスクなどからそのAI分野での才能を称賛されています。

One of the deciding figures in the OpenAI board coup that happened in November of last year, and somehow constantly the center of memes like field the AGI, which is something he would chant at the OpenAI offices.

昨年11月に起きたOpenAI理事会のクーデターで決定的な役割を果たした人物の一人であり、何故か常にOpenAIのオフィスで「AGI」という言葉を唱えるなど、ミームの中心となっています。

Or what did Ilya see?

イリヤは何を見たのでしょうか?

What development did he uncover that spooked him and the board into taking some drastic actions to potentially slow down OpenAI, refocus it on safety.

彼が見つけた開発は何で、それが彼や取締役会を驚かせ、OpenAIを遅らせる可能性のある急進的な行動を取らせたのでしょうか。

But none of these questions more pressing than, where is Ilya?

しかし、これらの質問の中で最も緊急なのは、イリヤはどこにいるのかということです。

Sam Altman has been asked this question so many times.

サム・アルトマンはこの質問を何度もされてきました。

Is Ilya in the box?

イリヤは箱の中にいるのでしょうか?

Delivered by Jensen Huang.

ジェンセン・ファンによってお届けされました。

Is Ilya in some underground nuclear facility?

イリヤは地下の核施設にいますか?

A secret bunker?

秘密の地下壕?

Well, now we know.

さて、今私たちは知っています。

Ilya's been busy building, not AGI, not artificial general intelligence, that's old news.

イリヤは忙しく働いていましたが、AGIではなく、人工知能ではありません。それは古いニュースです。

He's been building ASI, artificial superintelligence.

彼はASI、人工超知能を構築しています。

But he's calling it, and I do apologize for all the acronyms, he's calling it SSI, safe superintelligence.

しかし、彼はそれをSSI、安全な超知能と呼んでいます。すべての頭字語についてお詫び申し上げます。

He's saying it's the most important technical problem of our time.

彼はそれが現在の最も重要な技術的問題であると言っています。

He's building the world's first straight shot SSI lab.

彼は世界初の一直線のSSI研究所を建設しています。

We'll come back to that because a straight shot SSI lab is important.

一直線のSSI研究所は重要だと言っていますので、後で戻ってきます。

Let's start at the beginning.

最初から始めましょう。

Here's him, Ilya Sutskever.

こちらが、イリヤ・サツキヴァーです。

He's saying I'm starting a new company.

彼は新しい会社を立ち上げると言っています。

We will pursue safe superintelligence and a straight shot with one focus, one goal and one product.

私たちは安全な超知能と、一つの焦点、一つの目標、一つの製品に向けて直線的に進んでいきます。

We will do it through revolutionary breakthroughs produced by a small cracked team.

私たちは、小さな優秀なチームによって生み出される革命的な突破を通じてそれを実現します。

Join us.

一緒に参加してください。

For using the word cracked, please have a like, good sir.

「クラックされた」という言葉を使う場合は、いいねをしてください、紳士。

The company is at SSI, safe superintelligence.

その会社はSSIにあり、安全な超知能です。

As I'm looking at this, I'm wondering, did Elon work his magic in the background somewhere?

これを見ていると、イーロンがどこかで裏で魔法を使ったのかと思ってしまいます。

How do you get a handle like that nowadays?

最近、そのようなハンドルをどうやって手に入れるのですか?

Keep in mind, Elon Musk has said on numerous occasions how much great respect he has for Ilya.

イーロン・マスクは何度も述べているように、イリヤに対する彼の尊敬の念がいかに大きいかを忘れないでください。

He was the one that initially helped recruit Ilya to the OpenAI team.

彼は最初にOpenAIチームにイリヤを勧誘した人物でした。

This is their website, SSI.inc.

これが彼らのウェブサイト、SSI.incです。

They're saying superintelligence is within reach.

彼らは超知能が手の届くところにあると言っています。

If you've been paying attention recently, a lot of people are suggesting that AI deep learning, et cetera, it's hitting a wall.

最近注目している方は、多くの人々がAIのディープラーニングなどが壁にぶつかっていると提案していることです。

It's slowing down in progress.

進捗が遅くなっています。

LLMs aren't the pathway to AGI, much less some sort of a superintelligence.

大規模言語モデルはAGIへの道ではなく、ましてや超知能体のようなものでもありません。

There's a great video from about a year back where Ilya Sutskever at length discusses why in the upcoming years, a lot of people will think that there will be an AI winter.

約1年前の素晴らしいビデオがあり、イリヤ・サツキヴァーが長々と語っている。近い将来、多くの人々がAIの冬が訪れると考えるだろうと。

He explains why that will not happen, why progress will keep ramping up rapidly.

彼はなぜそれが起こらないか、なぜ進歩が急速に進むことになるかを説明しています。

Here he's saying superintelligence is within reach and that building a safe superintelligence is the most important technical problem of our time, which certainly I would agree with.

ここで彼は、超知能体が手の届くところにあり、安全な超知能体を構築することが現在の最も重要な技術的課題であると述べています。私も確かに同意します。

We have started the world's first straight shot SSI lab with one goal in one product, a safe superintelligence.

私たちは、安全な超知能を目指すたった1つの製品を持つ世界初のストレートショットSSIラボを立ち上げました。

It's called Safe Superintelligence, Inc.

それはSafe Superintelligence, Inc.と呼ばれています。

They use the word safe a lot.

彼らは「安全」という言葉をよく使います。

As you'll see, their history at OpenAI is probably responsible for some of that.

OpenAIでの彼らの歴史がその一部に責任があるかもしれません。

SSI is our mission, our name and our entire product roadmap because it is our sole focus.

SSIは私たちの使命であり、私たちの名前であり、私たちの全製品ロードマップです。それは私たちの唯一の焦点です。

Our team, investors and business model are all aligned to achieve SSI.

私たちのチーム、投資家、ビジネスモデルはすべてSSIを達成するために一致しています。

We approach safety and capabilities in tandem together as technical problems to be solved through revolutionary engineering and scientific breakthrough.

私たちは安全性と能力を革新的なエンジニアリングと科学的なブレークスルーを通じて解決すべき技術的な問題として一緒に取り組んでいます。

We plan to advance capabilities as fast as possible while making sure our safety always remains ahead.

私たちは安全性が常に最優先されるようにしながら、能力をできるだけ速く向上させる計画を立てています。

This way we can scale in peace.

このようにして、私たちは平和にスケールすることができます。

Our singular focus means no distraction by management overhead or product cycles.

私たちの唯一の焦点は、管理のオーバーヘッドや製品サイクルによる逸脱はありません。

Our business model means safety, security and progress are all insulated from short-term commercial pressures.

私たちのビジネスモデルは、安全性、セキュリティ、進歩がすべて短期的な商業的圧力から隔離されています。

We are an American company with offices in Palo Alto and Tel Aviv, where we have deep roots and the ability to recruit top technical talent.

私たちは、パロアルトとテルアビブにオフィスを持つアメリカの企業であり、深いルーツとトップの技術的才能を採用する能力を持っています。

Certainly, Ilya, while born in Russia, in the course of his life, developed a lot of roots in both Palo Alto, like the Bay Area, in San Francisco, California, as well as Tel Aviv and Israel.

イリヤはロシア生まれですが、彼の人生の過程で、パロアルトやサンフランシスコのベイエリア、カリフォルニア、そしてテルアビブやイスラエルに多くのルーツを築いてきました。

We are assembling a lean, crack team of the world's best engineers and researchers dedicated to focusing on SSI and nothing else.

私たちは、SSIに焦点を当て、他の何も考えない世界最高のエンジニアと研究者からなるスリムで優れたチームを結成しています。

Cracked, I believe, started out as a gaming term, meaning someone's insanely good at something.

「Cracked」は、おそらくゲーム用語として始まり、誰かが何かに狂気的に優れていることを意味しています。

And now often in tech used to describe somebody, for example, a developer or engineer that's incredibly good, focused, knowledgeable, just incredibly capable.

そして今、しばしば技術の分野で、例えば、非常に優れた、集中力があり、知識豊富で、非常に能力がある開発者やエンジニアを表現するために使われています。

If that's you, we offer an opportunity to do your life's work and help solve the most important technical challenge of our age.

もしそれがあなたなら、私たちはあなたの人生の仕事をする機会を提供し、私たちの時代の最も重要な技術的な課題を解決する手助けをします。

Now's the time, join us and the three co-founders, Ilya, Daniel Gross, Daniel Levy.

今がその時です、私たちと3人の共同創業者、イリヤ、ダニエル・グロス、ダニエル・レヴィに参加してください。

This is Daniel Gross.

こちらはダニエル・グロスです。

I personally don't know too much about this person, so it looks like he's an engineer and investor, co-founder of Q, a search engine acquired by Apple in 2013, ran AI and search projects at Apple, and invested in some pretty big startups like Instacart, Coinbase, GitHub, etc.

個人的にはこの人についてあまり詳しくは知りませんが、エンジニアで投資家であり、2013年にAppleによって買収された検索エンジンQの共同創業者であり、AppleでAIと検索プロジェクトを担当し、Instacart、Coinbase、GitHubなどのかなり大きなスタートアップに投資しています。

Looks like he was a partner at YA Combinator and started its AI program.

彼はYA Combinatorのパートナーであり、そのAIプログラムを立ち上げたようです。

Daniel Levy is the third co-founder, previously at OpenAI, PhD at Stanford, Google Brain, and Facebook.

ダニエル・レヴィは、以前はOpenAIで働いていた第3の共同創業者で、スタンフォード大学で博士号を取得し、Google BrainやFacebookでも働いていました。

Really likes the various crime TV series, it looks like.

様々な犯罪テレビシリーズが本当に好きなようですね。

The Wire, Sopranos, a lot of Sopranos, The Wire and Billions, apparently.

The Wire、Sopranos、たくさんのSopranos、The Wire、そしてBillionsのようです。

Bloomberg has an article by Ashley Vance.

ブルームバーグにはアシュリー・バンスによる記事があります。

Ashley Vance is the guy behind that Elon Musk biography from 2015.

アシュリー・バンスは、2015年に出版されたイーロン・マスクの伝記の裏にいる人物です。

Interestingly, Daniel Gross, one of the co-founders, is, according to Ashley Vance, is building it's impressive that he's building superintelligence with Ilya Sutskever, while also backing, apparently, John Carmack's AI efforts, which I've been following quite a bit.

興味深いことに、共同創業者の一人であるダニエル・グロスは、アシュリー・バンスによると、イリヤ・サツキヴァーと共にスーパーインテリジェンスを構築しているということが印象的であり、同時に、ジョン・カーマックのAIの取り組みを支援しているようです。私はそれをかなり追っています。

John Carmack, of course, is an incredibly interesting person, the original developer of Doom, yes, that Doom from the 90s, and since then has embarked on his own quest to develop AGI.

もちろん、ジョン・カーマックは非常に興味深い人物であり、90年代のDoomのオリジナル開発者であり、それ以来、自らAGIを開発するためのクエストに乗り出しています。

Ashley is interviewing Ilya Sutskever about his new venture, Safe Superintelligence Inc., in which Ilya is attempting to continue his work without many of the distractions that rivals such as OpenAI, Google, and Anthropic face.

アシュリーは、イリヤ・サツキヴァーに彼の新しいベンチャー、セーフ・スーパーインテリジェンス社についてインタビューしており、イリヤは、OpenAI、Google、Anthropicなどのライバルが直面する多くの邪魔を受けずに彼の仕事を続けようとしています。

This stands out to me, this company is special in that its first product will be the Safe Superintelligence, and it will not do anything else up until then.

これは私にとって目立つ点であり、この会社は特別であり、その最初の製品はセーフ・スーパーインテリジェンスであり、それまで他の何もしないでしょう。

No demos, no product releases, no anything until Safe Superintelligence.

セーフ・スーパーインテリジェンスが実現するまで、デモも製品リリースも何もありません。

It will be fully insulated from the outside pressures of having to deal with a large and complicated product and having to be stuck in a competitive rat race.

大規模で複雑な製品に対処しなければならない外部の圧力から完全に遮断され、競争の激しい競争に巻き込まれることもありません。

Ilya is not naming who is backing this or how much they've raised.

イリヤは、このプロジェクトを支援している人や調達した資金の額を明かしていません。

We're assuming Daniel Gross probably invested someone in it, but we have no idea, there has been no confirmation of that.

おそらくダニエル・グロスが何かしら投資していると仮定していますが、確証はなく、その点についての確認はありません。

They talk a bit about exactly what AI safety means.

AIの安全性が具体的に何を意味するのかについて少し話しています。

Ilya is a little bit vague about this, but he does suggest that safety will be done through engineering breakthroughs baked into the AI system, as opposed to guardrails that are applied to the technology on the fly.

イリヤはこれについて少し曖昧ですが、AIシステムに組み込まれた技術革新を通じて安全性が確保されると提案しています。それは、技術に即座に適用されるガードレールとは異なります。

By safe we mean safe like nuclear safety, as opposed to safe as in trust and safety.

安全とは、信頼と安全という意味ではなく、原子力安全のような安全を指します。

This little quote about trust and safety is interesting, so if you look at OpenAI's and their principles, they're saying they want to be a pioneer in trust and safety.

信頼と安全に関するこの小さな引用は興味深いです。OpenAIの原則を見ると、彼らは信頼と安全の先駆者でありたいと述べています。

This seems like a little bit of a shots fired at OpenAI sort of thing.

これは、OpenAIに対するちょっとした挑発のようなもののようです。

There's two co-founders.

共同創業者は2人います。

One is an investor and former Apple Inc.

一人は投資家であり、元アップル社の従業員です。

AI lead Daniel Gross, who backed a number of high-profile AI startups, including Keen Technologies.

AIリードのダニエル・グロスは、Keen Technologiesを含む数々の注目の高いAIスタートアップを支援しています。

I'm curious how many of you know where that name came from.

その名前がどこから来たか知っている人は何人いるか興味があります。

Hint, it's John Carmack's AGI effort.

ヒント、それはジョン・カーマックのAGIの取り組みです。

Keen Technologies, KeenAGI.com.

Keen Technologies、KeenAGI.com

Let me know in the comments if you know what Keen refers to.

コメントで教えてください。Keenが何を指すかわかる方。

I'll give you a hint.

ヒントをあげます。

That's Daniel Gross and the other co-founders, Levy, who build a strong reputation for training large AI models working alongside Ilya at OpenAI.

それは、ダニエル・グロスと他の共同創業者、レヴィで、イリヤと一緒にOpenAIで大規模なAIモデルのトレーニングに強い評判を築いています。

He's saying my vision is exactly the same as Ilya's.

彼は、私のビジョンがまさにイリヤのものと同じだと言っています。

A small, lean, cracked team with everyone focused on the single objective of safe superintelligence.

小さな、スリムで、一丸となって安全な超知能を目指す唯一の目標に焦点を合わせたチーム。

They mention here that both Sutskiver and Gross grew up in Israel.

ここでは、SutskiverとGrossの両方がイスラエルで育ったと言及されています。

Ilya is saying that his relationship with Sam Altman is good, and Sam knows kind of in broad strokes about this new venture, but nothing specific.

イリヤは、サム・アルトマンとの関係が良好であり、サムはこの新しい事業について大まかな概要を知っているが、具体的なことは何も知らないと言っています。

He's also saying that this whole experience since the OpenAI coup and him leaving OpenAI, he's saying it's been a very, very strange experience.

OpenAIのクーデター以降、OpenAIを去ってからのこの全体的な経験は、非常に非常に奇妙なものだったと彼は言っています。

They point out that the investors putting money into SSI, Super Safe Intelligence, well, they're investing without the hope of creating profitable hit products along the way.

彼らは、SSI(Super Safe Intelligence)に資金を投入している投資家たちが、途中で利益を生むヒット商品を作る希望なしに投資していることを指摘しています。

This is what they mean when they say straight shot SSI.

彼らがSSIをまっすぐな道と言うとき、これを意味しています。

No quick cash grab releases, subscription models, APIs, etc.

急な金銭的な利益を狙ったリリースや、定期購読モデル、APIなどはありません。

Straight shot seems like a do or die scenario.

一直線に進むことが生死を分かつ状況のように思えます。

They're saying there's no consensus in history about whether such an intelligence, a superintelligence, is achievable, or how a company would go about building one.

彼らは、そのような知性、超知性が達成可能かどうか、また企業がそれを構築する方法について、歴史上合意がないと言っています。

This is very, very true.

これは非常に、非常に真実です。

There is no consensus.

合意はありません。

We don't even have consensus about AGI, or even if LLMs have the ability to reason, to improve, to kind of make guesses that kind of fall outside of their training data.

私たちはAGIについても合意が得られていませんし、大規模言語モデルが推論する能力を持っているかどうかさえ、改善する能力や、トレーニングデータの範囲外の推測をする能力を持っているかについても合意がありません。

The fact that Ilya, kind of this legendary Figure in the space, is saying, I mean, some pretty bold statements.

この宇宙で伝説的な存在であるイリヤが、かなり大胆な発言をしているという事実。

He's saying we're getting to superintelligence.

彼は、超知能に到達していると言っています。

It's within reach.

それは手の届くところにあります。

We don't need to partner up with a trillion dollar public traded company.

1兆ドル規模の上場企業と提携する必要はありません。

We don't need to release products.

製品をリリースする必要はありません。

We just need a small, lean team.

小さな、スリムなチームが必要です。

A lot of this sounds very, very ambitious.

これは非常に、非常に野心的に聞こえます。

Ilya is saying that the way to make AI safe, for it to be a force for good, it should be operating on top of some key values.

イリヤは、AIを安全にする方法は、それが善の力となるために、いくつかの重要な価値観の上で運営されるべきだと言っています。

Values that have been so successful in the past hundred years that underpin liberal democracies like liberty, democracy, and freedom.

過去100年間に非常に成功してきた、自由、民主主義、自由のような自由主義民主主義を支える価値観。

With current systems, he says, you talk to it, you have a conversation, and you're done.

現在のシステムでは、彼は話しかけると会話ができて、それで終わりです。

The system he wants to pursue would be a more general purpose and expansive in its abilities.

彼が追求したいシステムは、より汎用性があり、能力が広がるものです。

You're talking about a giant super data center that's autonomously developing technology.

巨大なスーパーデータセンターについて話していますが、それは自律的に技術を開発しています。

That's crazy, right?

それは狂っている、そうでしょう?

It's the safety of that that we want to contribute to.

私たちが貢献したいのは、その安全性です。

But what do you think about this whole situation?

この全体の状況についてどう思いますか?

First of all, how realistic is Ilya's goal of first of all, building a superintelligence with what seems to be a small team with not a massive amount of funding and seemingly pretty quickly?

まず、イリヤの目標であるスーパーインテリジェンスを、資金が大量にあるわけではない小さなチームで、かつかなり迅速に構築するというのは、どれほど現実的でしょうか?

Certainly, they're saying there's not going to be any products in your releases until they get to ASI, right?

確かに、彼らはあなたのリリースに製品がないと言っていますが、ASIに到達するまでですよね?

They're not thinking decades in the future.

彼らは将来数十年を考えているわけではありません。

It sounds like it's something in the more near or medium term.

それはむしろ近い将来または中期のことのようです。

Also, there was this XKCD comic from a while back, 2015, I think, which kind of hit the nail on the head of this idea, right?

また、以前、2015年ごろにXKCDコミックがありました。このアイデアを的確に表現していたと思いますね。

If there's some situation where there's other companies or other benchmarks or other ways of doing something, there's always some engineer that's going, no, that's wrong.

もし他の企業や他の基準、他の方法があるような状況がある場合、必ず何かしらのエンジニアが「いや、それは違う」と言うことがあります。

I can do better.

私ならもっと良くできる。

I can build the one company or benchmark or tool that does everything right.

すべてを正しく行う1つの企業や基準、ツールを作ることができます。

Everybody gets excited, everybody agrees.

みんなが興奮し、みんなが同意します。

The next step is, well, now there's one more company or benchmark or tool that's supposed to unify everything, right?

次のステップは、さて、今はもう1つの企業や基準、またはツールがすべてを統一することになっている、そうですよね?

In this case, there's OpenAI, then Anthropic, split away from them because they wanted to build the safer AGI, right?

この場合、OpenAIがあり、それからAnthropicがあり、彼らから分かれたのは、より安全なAGIを構築したかったからですよね?

Elon Musk and xAI also came out and said, no, we want to build the safer AGI.

イーロン・マスクとxAIも出てきて、いいえ、私たちはより安全なAGIを構築したいと言いました。

This announcement, so there's yet another company that's building the safe AGI, but now it's ASI Superintelligence.

この発表、ですので、また別の企業が安全なAGIを構築しているが、今度はASIスーパーインテリジェンスです。

I'm sure some cynical people might say, well, this is just sort of the inflation of expectations.

私は確かに、いくつかの皮肉な人々が言うかもしれませんが、これは期待の膨張に過ぎないと。

You have to say ever bigger and sort of crazier things to get attention in order to get funding.

資金を得るために注目を集めるためには、ますます大きなことや少し狂ったことを言わなければなりません。

If OpenAI is saying they're developing AGI and you have a company that's saying you're developing AGI, that doesn't get a lot of attention.

OpenAIがAGIを開発していると言っているとき、あなたの会社がAGIを開発していると言っても、それはあまり注目されません。

But if you're saying you're developing ASI, well, that's a whole different thing.

しかし、ASIを開発していると言っているなら、それはまったく別の話です。

On the other hand, Ilya doesn't seem like the type of person that plays games like that or says things loosely.

一方、イリヤはそういったゲームをするタイプの人間でもなさそうで、適当に言うこともありません。

He seems like a very serious, very focused, very honest person and very convinced that this technology is coming soon and it's incredibly important that we get it right.

彼は非常に真剣で、非常に集中しており、非常に誠実で、この技術が間もなく到来し、正しく取り組むことが非常に重要だと確信しているようです。

But let me know what you think in the comments.

コメントでどう思われるか教えてください。

We'll wait and see and hopefully there'll be more news coming out of this company.

待って見ますし、この会社からもっとニュースが出ることを願っています。

Hopefully there'll be more things that they publish.

彼らが発表するものがもっと増えることを願っています。

Ilya is a fascinating character and I do want to know more about him and how he thinks and what he's working on.

イリヤは魅力的な人物であり、彼についてもっと知りたいし、彼がどのように考え、何に取り組んでいるかも知りたいです。

Exciting times ahead.

これから楽しい時がやってきます。

With that said, my name is Wes Roth and thank you for watching.

それが言えたところで、私はウェス・ロスです。ご視聴ありがとうございます。


この記事が気に入ったらサポートをしてみませんか?