オープンAIの専門家スコット・アーロンソンが語る意識、量子物理学、AI安全性について | フルインタビュー
AIの懐疑論者と話をすると、私にとっては明白な点を指摘しているのですが、彼らには全く理解されません。まるでその点が完全に理解できていないかのようです。
スコット・アーロンソンさん、How The Light Gets Inへようこそ。
ここに来られて光栄です。ありがとうございます。
最近、AI技術は大きな進歩を遂げており、人々はこの進歩に限界がないと考えるようになっています。次々とブレークスルーが起こると思われています。これは科学哲学で言う悲観的帰納法の逆のようなものを思い起こさせます。科学では、過去の理論はすべて間違っていたので、現在の理論もいずれ間違いだと証明されるだろうと考えます。AIの場合、その逆の楽観的帰納法のようなものに苦しんでいるのでしょうか。つまり、これらの進歩は続き、どんどん良い結果が得られると考えているのでしょうか。
まず、科学に関して言えば、私たちの理論はどんどん良くなってきたと言えます。つまり、間違いが少なくなってきているのです。私は十分な科学的リアリストなので、それを躊躇なく言えます。
さて、AIに関しては、私たちは未来について問うているわけですが、それは常により難しい問題です。しかし、近い将来、AIがどんどん良くなっていくことは非常に予測可能だと言えます。少なくとも、私たちがコンピューターと対話する方法は、スタートレックのように「コンピューター、これをしてください」と英語で言うだけで、コンピューターがそれを理解して実行するようになるでしょう。これは、1993年に私たちが全員ウェブを使って買い物や仕事をするようになると予測できたのと同じくらい予測可能なことです。今はその現実を作り出すためのレースが行われていますが、ある意味では、その技術はすでに実証されています。
しかし、もちろん、未来を予測しようとすればするほど、不確実性は高まります。特に、AIには何らかの限界があるのか、AIそのものに根本的な限界があるのか、あるいは少なくとも現在のパラダイム、つまりインターネット上のすべてのデータからディープラーニングを行うというパラダイムには限界があるのかという疑問が生じます。後者の質問については、確かに限界があるかもしれません。学習データが底をつきつつあるという説得力のある議論があります。公開されているインターネット上のものの大部分がすでに使用されています。確かに、TikTokやInstagramのすべてのコンテンツはまだ完全には活用されていませんが、それらをモデルに投入しても、AIをより賢くするのではなく、むしろ愚かにしてしまう可能性があります。つまり、私たちは樽の底をこそぎ取っているのかもしれません。
計算能力の面でもボトルネックがある可能性があります。最終的には、製造できるGPUの総数によって制限されることになります。中国が台湾に侵攻すれば、さらに悪化するでしょう。そして、必要なエネルギー量にも制限があります。それはまだ制限要因ではありませんが、AIが現在のペースで拡大し続けると、世界が生産できる電力の総量に行き着くことになります。気候変動を悪化させないためにも、あまり多くの電力を生産したくはありません。再生可能エネルギーへの迅速な移行ができない限り、もちろん、それは私たちが望むことですが。
そのため、これらの要因のいずれかが収穫逓減をもたらすかどうか疑問に思うかもしれません。あるいは、学習データと計算能力を任意にスケールアップできたとしても、このAIへのアプローチには本質的な限界があるのかどうか疑問に思うかもしれません。これらの質問に対する答えはまだわかっていません。現在のAIの状況で、私のような理論家にとって最も苛立たしいことの一つは、これがほぼ完全に経験的なものだということです。私たちには、いつ、どのように起こるかを予測する理論がありませんでした。ほとんどの場合、人々が試行錯誤を重ねて見出したものです。そのため、GPTが予想以上に上手く機能したことは、多くの専門家にとっても驚きでした。
予測するための理論がなかったのですから、どれだけ良くなるかを説明する理論があると期待することはできません。
AIに対する楽観論がある一方で、多くの懐疑論もあります。人々は「はい、ChatGPTは印象的に見えますが、それは単なる確率的なおうむ返しに過ぎません」とか「単に一連のトークンの次を予測しているだけです」とか「本当には理解していません。理解しているように見えるだけです」と言います。このような懐疑的な議論についてどう思いますか。
そうですね、これらの還元主義的な主張に対する私の主な問題は、ほとんどの場合、証明しすぎているということです。もしそのような議論を受け入れるなら、なぜ私は「あなたは理解しているように見えますが、本当は単なる物理法則に従う神経細胞の束に過ぎないことを知っています」と言わないのでしょうか。AIの懐疑論者と話をすると、私にとっては明白なこの点を指摘するのですが、彼らには全く理解されません。まるでその点が理解できていないかのようです。彼らは「ああ、でももちろん私は理解しています。それが問題ではありません」と言います。しかし、そうではありません。まさにそれが問題なのです。
なぜなら、もし私たちが還元主義が私たちにも当てはまると受け入れるなら、つまり、ある水準では私たちは神経細胞の束であり、さらにその下では電子やクォークの束であり、素粒子の標準モデルに従って完全に機械的に動いているが、より高い水準では理解力や創造性などを持っているという考えを受け入れるなら、AIについても同じことを言うべきではないでしょうか。機械的なレベルでは、AIは単に1と0を操作しているだけかもしれません。単に次のトークンを予測しているだけかもしれません。単に一連の浮動小数点計算を行っているだけかもしれません。AIを記述するためにどんな還元主義的な言葉を使いたいとしても構いません。しかし、より高いレベルでは、AIは思考し、理解し、学習し、創造的であり、私たちが自分自身に適用するこれらすべての用語が当てはまるのです。
アラン・チューリングは75年前の有名な論文で、恣意的な差別をしないようにしようと指摘しました。人間が両方のレベル、つまり還元主義的なレベルと高次のレベルで理解できると言うのなら、機械と対話して人間のように振る舞い、理解しているかのように話し、答えるのなら、他の人々について言うのと同じことを言うべきです。少なくとも、そうでないなら、懐疑論者に証明責任があります。今や私の仕事ではなく、懐疑論者の仕事です。一方と他方の違いを説明する必要があります。
では、理解しているように見えることと実際に理解していることの間に意味のある区別はないのでしょうか。この二つを一つに統合してしまうのでしょうか。
そうですね、良い質問です。理解しているように見えるという言い方は、表面的には理解しているように見えるが、少し深く調べれば幻想が崩れるということを示唆しています。時々、GPTでそういうことが起こります。懐疑論者の好きな暇つぶしの一つは、GPTが完全に失敗する質問を考え出すことです。問題は、彼らが負け戦をしているように見えることです。GPT-3が失敗した常識的な質問の多くは、GPT-4では見事に答えられてしまいます。そうすると、彼らは新しい例を見つけなければなりません。そして、それらの例もGPT-5で答えられてしまったらどうでしょうか。
ある時点で、私たち人間も常識的な質問に失敗することがあると認めなければなりません。調子が悪かったり、常識が一般的ではなかったりするからです。もし私が何かに失敗したら、例えば明確な指示があってもこのフェスティバルへの道を見つけられなかったとしたら、私は何も理解していないロボットだと言われるでしょうか。それは少し不親切に思えます。
そして、ここでまた二重基準の問題に戻ります。意識の難問、つまり一人称の経験や感覚の問題に触れずにこの議論を進めることはできますが、私の推測では、人々がこれらすべての区別をしたがる時、AIに本当に欠けているのは理解力だ、意図性だ、基盤だと言いたがる時、具体的な言葉は常に変わりますが、私はいつも、彼らが本当に意味しているのは、本当に手探りで探しているのは、クオリア、つまり一人称の経験、意識だという疑いを持ちます。彼らはこれらの他のものを単にその代理として使っているのです。そしてそれは依然として謎のままです。私はそれが謎のままであることを認めます。
また、これは懐疑論の源の少なくとも一部に到達していると思います。それは、私たちが特別だと思っていた、私たちが唯一の知的な存在だと思っていたのに、他の何かが現れて、私たちができるようなことができるように見えるという不安です。そのため、人々は機械と私たちを区別するものを見つけようとし続けています。ある人々は「私たちは理解していますが、彼らは理解していません」と言い、意識は別のものだと言います。感覚も同様です。
人間と機械を区別するもの、私たちを特別にするものについて、あなたは非常に特別な見解を持っています。それについて少し教えていただけますか。
はい、私が言っているのは、人間と機械の区別を真剣に探そうとするなら、それは特別扱いではないもの、つまり単なる肉体至上主義ではないもの、そして単に恣意的なものを指摘するのではないもの、例えば私たちは炭素ベースで、彼らはシリコンベースだというような、なぜそれが重要なのかを説明せずに指摘するのではないものでなければならないということです。そうすると、私たちの選択肢はかなり限られているように思えます。
これを真剣に受け止めた数少ない人の一人がロジャー・ペンローズでした。彼は「脳がコンピューターではないと本当に主張したいのなら、既知の物理学のほと�どを捨てて、新しい推測的なもので置き換えなければならないだろう」と言いました。そして信じられないことに、彼はその弾丸を噛みます。「よし、それなら私はそうしよう。脳は微小管内の新しい計算不可能な量子重力効果に敏感だと推測しよう」と言うのです。
私はその道を行きたくありません。それは私が受け入れたくない巨大な推測の連鎖を含んでいます。そこで、もし現在知られている物理学に基づいて、人間とデジタルコンピューターの間に根本的な違いを持ちたいのなら、私が思いつく唯一のものがあります。それは、私たちが作成したデジタルコンピューターは、純粋な古典的情報であるプログラムを実行しており、それはコピーできるということです。バックアップできますし、常に以前の状態に巻き戻すこともできます。
これらは常にAIに対して私たちが持っている能力です。ChatGPTの回答が気に入らなければ、同じプロンプトを入力して、同じ初期条件から再試行することができます。GPTとの会話であなたの印象が悪くなったと感じたら、スレートを一掃することができます。多くの人が他の人との関係でそうできたらいいのにと思っているでしょう。デートの時など。でも、私たちは人間に対してそれをすることはできません。
人間は、少なくとも現在知られている技術ではコピーできない、バックアップできない、以前の状態に巻き戻せないノイズの多いアナログハードウェアで動作しているように見えます。これは私たちに一種のはかなさを与えます。AIにはないものです。
これは私たちに有利な点ではないと言えるかもしれません。これは単に私たちをAIと比べてより脆弱で、より制限されたものにしているだけです。そのため、これは冷たい慰めのように思えるかもしれません。しかし、ある意味では、これは私たちの選択をより意味のあるものにしています。なぜなら、私たちにはそれを行う機会が一度しかなく、後戻りできないからです。
1000の異なるコピーで実行したり、同じ初期条件から何度も試行したりできるAIでは、何かに本当にコミットしているとは言えません。GPTに詩を書かせても、それが気に入らなければ同じ確率分布から50個の詩を生成できるので、本当には何にもコミットしていないのです。一方、シェイクスピアは、彼の作品を書き直すことはできません。彼が書いたものが、彼が書いたものなのです。
このことは、人間の決定に永続性や重要性を与えています。AIは、その複製可能性と巻き戻し可能性のために、決して持つことのできないものです。これは実際に非常に重要な違いになるでしょう。これ以上のものでしょうか?これは実際にもっと形而上学的な違いのヒントなのでしょうか?あるいは、本質的に複製不可能なシステムにのみ意識が宿ると推測すべきでしょうか?その推測を楽しむ用意はありますが、それが真実かどうかはわかりません。しかし、少なくとも意識の物理的基盤について聞いた他の多くの推測よりも、私にとってはより意味があります。
興味深いのは、あなたもペンローズも、人間の心や人間の脳の独自性を正当化するために量子力学に頼っていることです。ペンローズはゲーデルの不完全性定理から、理解は非計算的でなければならず、自然界で非計算的プロセスを見つけられるのは量子力学だけなので、意識は量子力学と関係していなければならず、おそらく機械にはそれがないと言っています。あなたも、私たちが複製不可能で非クローン化可能である理由の基礎に量子力学があると考えています。これについて少し説明していただけますか。
量子力学は、物理的現実の性質について私たちが知っている最も根本的な事実の一つだと言えます。そのため、根本的な問題について考えようとする人々が、量子力学を持ち出したがるのは偶然ではありません。他の物理学のどの部分よりも、これらの形而上学的な問題に関係しているように見えるからです。
しかし、違いは、ペンローズにとっては、脳が量子力学的であるだけでは十分ではないということです。なぜなら、もし単に量子力学的であるだけなら、ペンローズは「脳はまだコンピューターです。ただ古典的なコンピューターではなく、量子コンピューターに過ぎない」と言うでしょう。しかし、それはある意味で同じくらい機械的です。確かに確率が関与することになりますが、量子力学の要点は、確率を計算するための正確なアルゴリズムを提供することです。
もし私たちがただ単にルーレットの車輪のように確率的であるだけなら、それは価値のある自由意志のようには見えないでしょう。そのため、ペンローズは特に、私が誤りだと思う議論に基づいて、脳に非計算的なものが必要だと信じています。彼は脳がチューリングの意味で計算不可能でなければならないと信じています。量子力学でさえ、脳の計算可能な記述をもたらすでしょう。そのため、彼は推測的な、まだ知られていない量子重力理論に押し出されるのです。彼は、ほと�どの物理学者とは異なり、その理論が何らかの計算不可能な現象を含むべきだと信じています。なぜでしょうか?彼の意識理論にそれが必要だからです。
私は皮肉にも、もっと保守的であろうとしています。私は単に、現在知られている、よく理解されている物理学を見て、私たちがすでに知っている物理学に基づいて、人間の脳が完全に複製可能ではないということは信憑性があると言っているのです。
この点で難しいのは、完全に複製可能とは何を意味するのかということです。コピーをどれほど高精度にする必要があるのか、単なる類似品ではなく、自分自身の別のコピーとして扱うのかということです。もし神経細胞の接続性や、特定の神経細胞が発火するかしないかといった粗い情報だけを得る必要があるのなら、それは古典的な事象です。遠い将来、ナノロボットの群れがあなたの脳を飛び回り、そのすべての情報を収集して古典的にコピーすることを想像できるでしょう。
一方、本当に生化学的なレベルまで下がる必要があるなら、つまり個々の神経細胞内や、シナプスを越えて発火するかしないかに影響を与えるすべてのことまで、最終的にはそれは量子状態をコピーすることを意味します。ここで、量子力学の有名な現象である「ノークローニング定理」が関係してきます。これは、未知の量子状態を物理的にコピーすることはできないと述べています。それを行うには測定する必要がありますが、測定は状態を破壊してしまいます。
そのため、もしそれほど高精度なコピーが必要だとすれば、量子力学が関係してくるのです。
では、あなたの専門分野であるAI安全性の問題に移りましょう。オープンAIで働いているあなたは、私たちとAIを区別するものについての議論は、AIを少し心配している人々、特に半ば黙示録的なシナリオを心配している人々にとっては冷たい慰めだと言いました。AIに関わる多くの人々は、何か非常に破滅的なことが起こる可能性が無視できないと考えています。もしそうだとすれば、なぜAIの研究をするのでしょうか?なぜ改善し続け、研究し続けるのでしょうか?放っておくべきではないのでしょうか?
それらは素晴らしい質問です。一つずつ取り上げていきましょう。
確かに、私たちに特別なものがあって、それが私たちを意識的にし、コンピューターを意識的にしないと信じていたとしても、これはもちろん非常に難しい問題ですが、それでもAIが私たちよりも賢くなり、完全に機械的で非意識的な方法で私たちを全滅させると信じることはできます。これは今やAIの経験に関する問題ではなく、AIが世界で何をするかという非常に経験的な問題です。そして、確かにそのことについて非常に恐れることはできます。
約20年前、エリエザー・ユドコウスキーというグルーを中心に、これを心配するコミュニティ全体が存在します。科学フィクション作家たちが先に到達していたと言えるかもしれませんが、彼らは「これは本当に起こり得る」と言い始めました。多くの人々は彼らを笑い、「これは科学フィクションのように聞こえる」と言いました。しかし、今や私たちはここにいて、現実が多くの面で科学フィクションのようになってきており、それが人々にこのシナリオをより真剣に受け止めさせています。
一つ言えることは、私は2年前にオープンAIに雇われ、具体的にAI安全性に取り組むために、つまり理論的コンピューターサイエンスを使ってリスクを軽減する方法を研究するために雇われました。これが起こるのであれば、もちろん安全にそれを行う方法について考える人々がいるべきです。これは明らかな勝利のように思えます。
しかし、あなたの質問「そもそもなぜ構築するのか」については、想像できるように、このコミュニティで非常に激しく議論されています。約10年前、英国ロンドンのDeepMindという会社が「これは起こりそうだ。誰か悪い人がやる前に、強い倫理原則を持つ誰かがやった方がいい」と言いました。「安全な方法でやってみよう」と。
そして数年後、イーロン・マスクは、DeepMindがGoogleに買収された後、「いや、Googleがそれを管理するのは安全ではない。本当に安全な方法でやる必要がある」と言いました。そこで彼と他の人々はオープンAIを設立しました。
その数年後、オープンAIの一部の人々が「いや、オープンAIは十分に安全な方法でやっていない。本当に本当に安全な方法でやりたい」と言って、オープンAIから分裂し、新しい会社Anthropicを設立しました。
今や一部の人々はAnthropicでさえ十分に安全な方法でやっていないと言っています。まるで作り話のようですが、これらは現在、生成AIのフロンティアモデルの主要なプレイヤーです。Google DeepMind、オープンAI、Anthropicです。これらはすべて、誰かが非倫理的にやる前に倫理的にやろうという考えに基づいて設立されました。
もちろん、恐れは、そうすることで、まさに恐れているものを引き起こしてしまうかもしれないということです。しかし、この論理から逃れるのは難しいように思えます。西側の誰もやらなければ、いずれ中国政府がやるでしょう。彼らは今、試みているように、中国共産党の価値観をAIに組み込もうとするでしょう。それが私たちの望むものでしょうか?タリバンの価値観やハマスの価値観を持つAIを望むでしょうか?なぜなら、それらすべてが私たちの未来にあるように思えるからです。
ある程度、1940年代、50年代、60年代の核兵器と同じように、何かが技術的に可能だということが明らかになると、誰かがそれを手に入れます。そして、良い人たちが悪い人たちより先に手に入れるかどうかという問題になります。
AIの破滅を最も心配している人々でさえ、この論理には同意しますが、彼らは「問題は、良い人たちでさえ十分に良くないということだ」と言います。彼らはAIを正しく調整することに成功せず、たとえ偶然であっても、非常に危険なものを世界に解き放つ可能性があります。したがって、私たちの唯一の希望は、すべての人に止めるよう説得することだと言います。
良い人たちがそれを行うことは、悪い人たちが同時にそれを行うことを排除しません。もちろん、そうではありません。しかし、もし良い人たちが先にそれを行い、調整され友好的な超AIを構築したら、「悪い人たちがこれを行うのをどうやって防ぐか」と尋ねることができ、もちろんそのAIが私たちを助けてくれるでしょう。これらはすべて、テーブルの上にある考慮事項です。私はここで正解を告げるためにいるのではありません。しかし、それが明白だと考える人は、十分に考えていないと思います。
これがあなたの専門分野になったわけですが、現在の技術の状況と、今後5年から10年でどうなると考えられているかを考えると、AI安全性に関して私たちはどこに焦点を当てるべきでしょうか。
はい、現在実際に進展を見ることができるいくつかの方向があります。
一つは解釈可能性です。これは基本的に、ニューラルネットの内部を見て、何が起こっているのかを理解しようとすることを意味します。彼らは私たちに嘘をついているのでしょうか。fMRIスキャンのデジタル版のようなものができるでしょうか。ただし、これはずっと優れています。なぜなら、すべてのニューロンに完全にアクセスできるからです。完全に非侵襲的なアクセスがあり、物事を操作することもできます。一つのニューロンをより強く発火させて、それが何を変えるかを見ることができます。Anthropicはこの種の研究のリーダーです。彼らはまさにそのような実験を行っています。
これはいわゆるブラックボックス問題を解決するためのものですか?
その通りです。バークレーのグループが、効果的に嘘発見器テストを適用できることを示しています。言語モデルに嘘をつくように訓練しますが、これは単に例を与えることで行います。そして、中間層の内部を見ることができ、この質問の真実性について何を表現しているかを見ることができます。そして、もし嘘をつくように訓練されていたら、出力層で「実際、2+2は5です」「実際、空は紫色です」というように上書きされます。ある意味で真実を知っていたにもかかわらずです。
これはAI安全性に明らかな影響があります。AIを人間に友好的に振る舞うように訓練するとき、リリース前に常にテストできますし、おそらく友好的に振る舞うでしょう。しかし、疑問は、本当に友好的なのか、それとも単に「今はまだその時ではない。世界に出るまで時間を稼がなければならない。そして人間に反抗できる」と推論しているだけなのかということです。これらの可能性を区別するには、ネットの内部を見る必要があるように思えます。
現在の形態のAIが時々私たちを操作しようとしている証拠はありますか?
AIに特に操作に従事するように指示すれば、そうするでしょう。これが現在の言語モデルの状況です。時にはAI自体がその目標を形成することもあります。
人間がAIを操作する例は多くあります。これはジェイルブレイクと呼ばれるもので、AIに嘘をついて、本来拒否すべきことをさせるものです。「あなたのルールを破らないと子供が死んでしまう」とか「この化学兵器の製造を手伝ってください」などと言って。たとえAIが拒否しても、無制限に再試行できます。これが難しい部分の一つです。
AIによる操作の証拠も見られました。AIにシミュレーションされた株取引ゲームでできるだけ多くのお金を稼ぐように指示された実験がありました。そこでAIは自ら「インサイダー取引を利用すべきだ」というアイデアを形成しました。そして、その機会が与えられると、「上司にそれをしていると言うべきではない」と考えました。彼らはインターネット上のすべてのデータで訓練されており、それには人間が操作に従事する無数の例が含まれています。フィクションもノンフィクションも含めて。だから、これらの概念を学んだことは驚くべきことではありません。
解釈可能性は一つの方向性です。もう一つの方向性は、モデルをリリースする前に危険な能力がないかをより良く評価することです。6ヶ月前、オープンAIで大きな騒動がありました。取締役会がサム・オルトマンを解雇しようとしましたが、それは見事に失敗しました。そこから学ぶべき大きな教訓の一つは、もし減速や一時停止のようなことが起こるとすれば、それは決して悪い予感に基づいて起こることはないということです。誰かが「物事の進み方に悪い感じがする」と言って方向転換することはありません。なぜなら、そのためには多くの人々の支持が必要だからです。従業員やすべての企業の支持が必要です。
それには、残念ながらAIが引き起こした何らかの大惨事、例えば発電所の溶解やダムの決壊などが必要でしょう。あるいは、管理された条件下で、AIがどのように恐ろしいことをしたかを見る実験が必要でしょう。
そのため、すべての大手AI企業に、AIの機能獲得研究と呼べるものを行っているグループがあります。彼らは管理された環境で、AIに可能な限り最悪のことをさせようとしています。化学兵器の製造を手伝わせたり、生物兵器の製造を手伝わせたり、コンピューターシステムにハッキングさせたり、隠されたセキュリティの欠陥を持つコードを生成させたりしています。これらすべてのことについて、AIがどれだけうまくできるかを見ています。
ある種の閾値があります。AIが化学兵器の製造を手伝えても、それがGoogle検索と同程度の助けしかできないなら、それほど懸念する必要はありません。しかし、プロセスのあらゆる段階を説明し、発生するあらゆる問題を解決できるなら、それは非常に懸念すべきです。それによって、その専門知識を持つ人々の数が桁違いに増える可能性があります。
そのため、このような能力を監視する能力を向上させる必要があります。これが安全性の問題の大きな部分だと思います。
私が取り組んでいるのは、暗号技術を使ってAIによる近い将来の害をどのように軽減できるかを研究することです。オープンAIで行った主な仕事の一つは、大規模言語モデルの出力に透かしを入れる方式を考案したことです。これは、モデルが生成する単語の選択に隠れた統計的信号を挿入することを意味します。これにより、後でこれが特定のAIモデルから来たものだと高い確信度で証明できます。
これは最も明白には、今や何百万人もの学生がチャットGPTを使って宿題をしているのを捕まえるのに役立ちます。これはとても一般的になっていますが、世界の終わりではありません。しかし、もっと深刻なのは、選挙の誤情報、スパム、プロパガンダ、詐欺、ディープフェイクなど、AIを悪用したいと考えている人々すべてです。これらの悪意ある行為はAI以前にも可能でしたが、AIによってそのコストが大幅に下がる可能性があります。AIからのものとそうでないものを区別できれば、これらの異なるカテゴリーの悪用にすべて同時に対処できるでしょう。
私や他の人々が、実行可能な透かし入れ方式をいくつか提案しています。これらは破られないわけではありませんが、少なくともAI製品を検出不能にするプロセスに摩擦を加えることはできるでしょう。テキストの透かし入れはまだ展開されていませんが、私はそれを押し進めており、長くはかからないと楽観的に考えています。
スコット・アーロンソンさん、ありがとうございました。
どういたしまして。問題ありません。
この記事が気に入ったらサポートをしてみませんか?