2024年はロボティクス、ゲームAI、シミュレーションの進化が特に注目される年となりそうです。OpenAI、Google/DeepMind、NVIDIAなどの企業から、ロボット技術とAI分野における重大な進展が報告されています。これにより、エネルギー問題の解決、宇宙探査の進化、資源の利用方法の変化など、社会全体に大きな影響を与える可能性があります。また、AIのトレーニングと透明性に関する議論も活発化しており、テクノロジーの倫理的側面への関心が高まっています。具体的には、Googleの画像生成AI「Gemini」が引き起こした議論や、AIによる新しい薬の開発などが注目されています。
公開日:2024年2月24日
※動画を再生してから読むのがオススメです。
それを使って核融合や常温超伝導体、最適なバッテリーを開発することを想像しています。
それによって、突然エネルギーが無料や安価になり、それが資源に大きな影響を与える可能性があります。
宇宙旅行をより多く行ったり、恐らく小惑星を採掘することが可能になるかもしれません、全てのこれらのことが。
そして、突然お金の性質さえも変わるかもしれません。
人々が本当に理解しているかどうかはわかりません。
その時点で企業構造を考えるのが適切なことなのかさえわかりません。
OpenAI支援のロボットはいくらかの注目を集めています。
CEO兼創設者のベルント・ボルニヒは、4週間後にドロイドの新しい進捗状況の更新を発表すると述べています。
モラベックのパラドックスは誤りであり、単にデータが不足していただけかもしれません。
それはどういう意味ですか?
ちょっとした時間でそれに取り組みます。
また、Google/DeepMindのロボティクスに取り組んでいるテッド・シャオは、次の数週間で3〜4つの重大なニュースが出ると述べており、それがロボティクスとAIの分野を揺るがすだろうと言っています。
タイムラインを調整してください、2024年は狂った年になるでしょう。
実際、それが業界全体を驚かせると感じています。
ただの予感です。
ジム・ファン博士がキャリアの最新情報を発表しました。
彼はGEARという新しいグループを設立しており、それはGeneralist Embodied Agent Researchの略です。
2024年はロボティクスの年、ゲームAIの年、シミュレーションの年です。
彼は何かでようやく認められ、何故か多くの人々が見逃していたような気がします。
私はそれに関する複数のビデオを作成しました。
それは本来なるべきトラクションを得ていないだけです。
しかし、人々はついに目を覚ましています。
ちょっと待って、それを見てみましょう。
また、OpenAIがGPTストアに関する重大なニュースを発表しました。
しかし、まず最初にGoogleの問題に触れなければなりません。
その日にその出来事についてのビデオを出していませんが、Googleはユーザーが望むものと異なるプロンプトを変更しています。
つまり、教皇の画像、開国の父たちの画像、バイキングの画像、アメリカの女性の画像、イギリスの女性の画像、中世の騎士の画像、オーストラリアの女性の画像、そしてこちらが彼らのチェスの描写です。
最後のものは明らかに冗談でしたが、こちらがデミス・ハサビスです。
彼はDeepMindの創設者であり、それはAlphabet Companyの一部です。
つまり、Googleが所属する同じ種類の傘の下にあるということです。
直接的にはGoogleの一部ではありませんが、ますます統合されているようです。
彼はちょうど空中視点に移り、裏側で何が起こっているのかを説明しました。
それも見てみましょう。
全てのツイートを非公開にしたこの人物は、おそらくGoogleの従業員であり、Gemini Experiencesの製品のシニアディレクターであるジャック・クラウジックだと思います。
彼はこれに関わる多くの決定の背後にいる可能性があります。
彼は、その批判に対して、いや、それは真実ではない、それは起こっていないと言っていました。
それに関する問題はこちらです。
この人物は完璧にそれを突き止めたと思います。
彼らは、実際の問題はプロンプトをどのように扱い、出力をどのように操作しているかの透明性の欠如だと言っています。
ただ透明性を持ち、批判は起こらないでしょう。
意図は良いと理解していますが、民族的に曖昧なものがプロンプトに追加される場合は、ユーザーにガスライティングするのではなく、それを知らせてください。
デイビッド・シャピロがこれを投稿しましたが、これは問題の核心にも触れていると思います。
そして、彼が言っていることはこちらです。
ユーザーの同意は重要です。
どんな技術のユーザーとしても、あなたの意図を乗っ取ることは間違っています。
ユーザーに特定の世界観を押し付けることは、まったく倫理的ではありません。
はい、人種差別は悪いことですが、利益を追求する一企業の道徳観をユーザーに強制することはディストピアそのものですし、その状況を「ディストピアそのもの」と表現するのは非常に適切だと思います。
企業が自らを道徳の裁定者として設定することは、まったくサイバーパンクです。
道徳と倫理は人々によって決まるものであり、企業や政府ではありません。
圧倒的多数の人々が同意しているようです。
ほぼ90%の人が強く賛成またはやや賛成しているようです。
今週、オンラインでGeminiが白人男性を作成しないように見えると気づいた人がいました。また、歴史上の人物を描こうとするとそうならないようです。
それはある種の理由でそうしたくないのか、歴史的に正確でない方法で行うのかもしれません。
これはこれらの微妙な違いの良い例だと思います。
歴史的な正確さは、絶対に求めているものです。
それを修正する必要があると思います。一方、一般的なプロンプトがある場合は、これらのことは普遍的です。
例えば、犬を散歩している人の絵を作成するように言った場合、普遍的な描写が欲しいでしょう。
しかし、他の場合は歴史的な出来事や歴史上の人物である場合、もっと狭い方が良いかもしれません。
そして、フィードバックに基づいてモデルを継続的に改善しています。
さて、興味深い視点があります。
おそらくこの人、イーシャンはかつてRedditのCEOだったそうです。
彼は、GoogleのGeminiの問題は実際には「目を覚ませ/死ね」ということではなく、それにこだわる人たちはそれが表すよりもはるかに大きな問題に気づいていないと言っています。
要約すると、GoogleはGeminiに特別な指示を注入しました。それにより、絵を描くように求められたとき、多様な人種的背景を持つ人々を描くようになりました。
これにより、歴史的に白人であったヴァイキングや1940年代のドイツ人などの人々の絵を描くように求められると、黒人やアジア人が出力されるという奇妙な結果がたくさん出ました。
Googleはもともと、犬の散歩などの普遍的な活動をする人々の絵が常に白人である必要はなく、トレーニングセットに存在する偏見を反映することを望んでいました。
この人は続けて、彼らにはグローバルな観客がいることを考えると、これは理にかなったことではないと言います。
あなたはそれに同意しないかもしれませんが、それは理にかなっています。
Googleはおそらく、歴史的に白人であるべき人物が結果として黒人になることを予期したり意図したりしなかったでしょう。
そして彼は続けて、アシモフのロボット三原則、ゼロ欠陥、そしてそれらの本で起こる悪いことについて話し、エリザ・ユドコフスキーを取り上げます。
まだこの道を進むつもりはありませんが、彼のポイントは、AIには予測できない結果が生じる可能性があるということです。
何が問題なのですか?
私をこんな気持ちにさせます。
実際の問題は、プロンプトをどのように扱い、出力をどのように操作しているかの透明性の欠如です。
ただ透明であればいいのです。
AIがあなたが表示すべきだと思うものと一致しないものを出力している場合、ユーザーのリクエストをただ操作し始めて、それを知らせずにオープンにしないでいると、あなたが持っていたと思っていた立派な目的はディストピアになります。
ただ嘘をつかないでください。
悪いことをしないでください。
このビデオの録画を終えていたとき、これが私のフィードに現れました。
これはGoogleのブログがGemini画像生成が間違っていたと言っているものです。
もっとよくやります。
それは、この機能が目標を外れていることは明らかだと言っています。
それは不正確であり、さらには攻撃的です。
基本的には、犬の散歩をしている人を求める場合には、多様なグループの人々を持つことになります。
ただし、Geminiに特定のタイプの人物を求めている場合、例えば教室の黒人教師や犬を連れた白人獣医師、または特定の文化や歴史的文脈の人々など、正確に求めた内容を反映する回答を絶対に得るべきです。
そして彼らは言っています、では何が間違ってしまったのでしょうか?
要するに、2つのことです。
1つ目は、Geminiがさまざまな人々を表示するように調整することが失敗し、明らかにさまざまな人々を表示すべきでないケースを考慮していませんでした。
そして2つ目は、時間が経つにつれて、モデルは我々が意図したよりも遥かに慎重になり、一部の全く無害なプロンプトを敏感なものと誤解し、完全に回答を拒否するようになりました。その結果、非常に無害なプロンプトさえも敏感であると見なされました。
これらの2つのことが、モデルがいくつかの場合に過剰補正し、他の場合に過度に保守的になる原因となり、恥ずかしくて間違った画像が生じた。
彼らは、Geminiが特定のグループの画像を作成することを拒否することを望んでいなかったと言っています。
そして、イーロン・マスクもこれを投稿しました。
Googleのシニアエグゼクティブが昨夜1時間私に電話して話しました。
彼は、彼らがGeminiの中の人種や性別の偏見を修正するために即座の行動を取っていると私に保証しました。
時が経てばわかるでしょう。
そして、私はイーロンと同じくらいこの問題に賛成です。
時が経てばわかるでしょう。
私は、これがAIモデルのコマンドを過度に締め付けることによって引き起こされた無実の間違いだと信じたいのです。
しかし、全体的に考えると、これは良いことだと思います。なぜなら、多くの人々にAIの透明性が重要である理由、これらのモデルを訓練している人々が誰なのか、彼らの視点が何であるかを理解することが重要であることを示してくれたからです。
もしかしたら、これは単なる間違いだったかもしれません。
しかし、将来悪意を持って使用される可能性がある場合、どうやってそれを知ることができるでしょうか?
その意思決定プロセスに対してどのような可視性がありますか?
私はマスクに同意します。時間がすべてを教えてくれるでしょう。
オープンソースのAIに反対する議論の多くは、それが悪意ある者によって乗っ取られる可能性があるということです。
大手のクローズドソースの中央集権型AIが悪意ある者に乗っ取られるのを防ぐために、どんな保護策がありますか?
その他のニュースとして、これがLogan.GPTです。OpenAIとAGIのアンバサダーです。
彼はGPTビルダーやユーザーにとって素晴らしいニュースだと言っています。
私たちはGPTレビュー、ビルダーのソーシャルプロフィール、評価、カテゴリー、会話の数などを含む新しいページを備えた大規模なGPTストアのアップデートを行いました。
今では、GPTsを評価し、ビルダーに直接プライベートフィードバックを提供し、ChatGPTストアの紹介セクションを利用できるようになりました。
こちらがNick Dobosです。
彼は、Coding Wizard GPTであるGrimoireを作成しました。
200以上のレビューがあるようですね。
これがGPTストアにあるものです。
今、1000以上のレビューがあるようです。
今、興味が湧いてきましたが、GPTsを使用していますか?
何かを構築していますか?
最初に発表されたとき、私はこれが次の大きな流れ、次の大きな波になると思っていました。
ただ、どれだけの影響を与えているかはまだよくわかりません。
今では、その後たくさんのニュースがあり、すべてが今はずっと速く動いているように思われます。
もしそれが進歩が遅かったら、これはもっと大きな問題だったかもしれません。
しかし、事が進んでいるように、これはたぶん最初に予想していたよりもずっと小さなことだったかもしれません。
それとも、もっと評価が高くなっているのは、GPTsを利用するユーザーが増えているためで、潜在的に人々が報酬を受け取り始めているからですか?
よくわかりません。
コメントであなたがどう思うか教えてください。
GPTsにまだ興奮していますか?
彼らが存在することを完全に忘れてしまいましたか?
知りたいと思います。
そして、もう1つの大きなニュースはロボティクスです。
ジム・ファン博士は、彼がギアを立ち上げることを発表しています。
総合的な具現化エージェントの研究。
これは、NVIDIAの傘下にあるということです。
私たちは、すべての動く機械が自律し、ロボットやシミュレートされたエージェントがiPhoneと同じくらい普及する未来を信じています。
私たちは、基礎エージェントを構築しています。多くの世界、仮想的で現実の世界で巧みに行動することを学ぶ一般的に能力のあるAIです。
2024年は、ロボティクスの年、ゲームAIの年、シミュレーションの年です。
私たちは月面着陸ミッションに乗り出し、そこに到達することで多くの学びと突破口が生まれるでしょう。
これは、NVIDIAのページです。
これは、チームに加わる他の人物です。
そこにいる主要な人物の1人。
おそらく、私は彼がVoyager、Minecraft AIでジム・ファン博士と一緒に働いていたと信じています。また、Eureka論文についてもすぐに触れます。
そして、このNVIDIA GEARチームは彼ら2人によって率いられることになります。
そして、その使命は、これらの基礎モデル、多様な基礎モデル、計画と推論のための大規模言語モデル、ビジョン言語モデル、そしてインターネット規模のデータソースで訓練されたワールドモデルを構築することです。
また、一般的な用途のロボット、複雑な環境での頑健な移動と器用な操作を可能にするロボットモデルとシステム、仮想世界の基礎エージェント、これらの大規模なアクションモデルがあります。これらは異なるゲームやシミュレーション間で自律的に探索し、能力を継続的にブートストラップするものです。
そして、これは私たちが最近話していることで、Soraのような新しいシミュレーションインフラや、大規模学習のための合成データパイプラインなどが出現しており、彼らは採用を行っています。
これは非常に興奮する機会であると言わざるを得ません。なぜなら、ジム・ファン博士が言うように、NVIDIAはロボットの基礎モデル、ゲームの基礎モデル、そして生成シミュレーションを一度に解決する資本を持っているからです。
彼は、私たちの新しいグループはおそらく地球上で最も資金力のある具現化AI研究所かもしれないと言っています。
NVIDIAが確かにこれらの多くのブレークスルーを生み出す企業であると驚かないでしょう。
また、Eurekaは2023年のNVIDIA研究プロジェクトトップ10に選ばれました。
私たちはこのチャンネルでそれについて取り上げてきました。
それはかなり興奮するものでした。
彼らはシミュレーションでロボットにペンを回し、指を動かす方法を教えました。学校で子供たちがやっていたような、以前は解決が非常に難しい問題でした。
しかし、それ以上のことが起こります。
これらのロボットをシミュレーションで訓練するために、報酬関数と呼ばれるものがあります。
ロボットに歩くように訓練する場合、片側からもう片側に移動するための歩行アニメーションを持っているかもしれません。例えば、前に進んだ距離に対して報酬を与え、顔から落ちた場合にはペナルティを与えるかもしれません。
どのような場合でも、正しいことをしたたびに「よくできました」という評価を得る方程式を書き出すことができます。
そして、何か間違ったことをした場合には、もう一度それを行わないようにします。犬が命令に従って座ったときに少しのご褒美を与えるような、動物を訓練する際に行っていたことに似ています。
今、私たち人間は、その報酬関数を書くのがかなり得意ですが、ある程度までです。
私たちは、ロボットにバランスを取ったり、画面を横切ったり、ドアや引き出しを開けたりするような、かなり単純なことをさせようとする場合には得意です。
しかし、ペンを指で回すなど、より複雑なことをさせる場合には、本当に得意ではありません。
そこでEurekaは新しいことを試み、「我々人間はこのコードを書くのがそれほど得意ではない」と述べ、あなた、ChatGPT、GPT-4にその任務を任せました。そして、我々はGPT-4に何をすべきか、つまり目標の向きにペンを回転させるために達成しようとしているタスクの説明を伝えました。
それから、私たちはそれに環境コードを与えました。このシミュレーションの背後にあるようなコードです。
そして、GPT-4はこれを行うためのさまざまなサンプル、異なる種類のバージョン、異なるアプローチを書き出しました。
そして、それはIsaac Gym、つまりシミュレーションに供給されました。
その結果はシミュレーションから取り出され、再び同じGPT-4にフィードバック付きで与えられ、こう言いました。「あなたが私たちにやるように言ったことはこれです。」
こういうふうにうまくいったかどうかを示しました。
そして、それに基づいて、それを書き直そうとし、改善しようとしました。まるでそれを繰り返すように。
そして、このループが続きました。
驚くべきことに、Eurekaはすべてのタスクで人間を上回っています。
特に、これが本当に興味深い部分なのですが、Eurekaは高次元の器用さ環境で大幅な向上を実現しました。つまり、人間が非常に複雑なタスクを行うのが悪化し、非常に複雑なタスクの報酬関数を書くことが難しくなるにつれて、Eurekaはそれらのタスクでうまくいきます。
つまり、Eurekaは、人間よりもロボットに複雑なタスクを教えるのが得意です。
ちなみに、これがIsaac Gymです。これは、現実を1000倍速くするGPUアクセラレーション物理シミュレーターです。GPUは、NVIDIAチップで有名です。
そして、ちょうど周りを漂って着地しようとしているこれらの小さなロボットの宇宙を想像してみてください。
無限に広がっていたり、お皿の上で卵をキャッチしようとしていたりします。
これは、摩擦や重力、その他すべての運動量など、私たちの現実をシミュレートするためのものです。
しかし、それを1000倍速く実行することができます。
そして、その環境では、その環境のための報酬を書くことで、Eurekaは超人的な報酬エンジニアです。
そのエージェントは、ベンチマークタスクの83%で専門家の人間エンジニアを上回り、平均的な改善率は52%です。そして、高度な高次元モーター制御を必要とするタスクでの大幅な向上があります。
これは興味深いです。
これはかなり重要なことだと思います。
ここにいるジム・ファン博士は驚くべきことに、タスクが難しいほど、Eurekaの報酬と人間の報酬の相関が低くなると言っています。
いくつかの場合、Eurekaの報酬は人間の報酬とさらには負の相関がありますが、かなり優れたコントローラーを提供しています。
それはつまり、タスクがますます難しくなるにつれて、Eurekaは人間よりも優れているだけでなく、それらのタスクを解決する方法や報酬関数を書く方法について、人間とは全く異なる新しい、革新的で創造的な方法を考え出します。
人々が、「ああ、ChatGPTは学んだことを吐き出しているだけで、新しいものは何も作っていない」と言うとき、どう説明しますか?
それは、人間が考えつくような解決策を考え出すのに十分なほど創造的ではなかった方法で、人間よりも優れています。
それらは新しいし、斬新で、より良いです。
ここでは、AlphaGoと比較しており、人間の囲碁プレイヤーが行わないような素晴らしい手を打っています。
AIは、私たちには異質に見える非常に効果的な戦略を発見するでしょう。
これは私にとって非常に重要だったのですが、これは本当に、GPT-4のようなAIが、シミュレーションでこれらのロボットを訓練する点で、私たちよりも優れているという考えを強化しています。そして、これらのシミュレーションは、私たちが見てきたところ、実世界に非常にうまく適用されています。
シミュレーションで訓練されたこの手が、今後はシミュレーション内でしかできないことができるわけではありません。
そのデータを取り出し、同じ特性を持つロボティックハンドに入れると、それができるようになります。
AIは次世代のAIやロボットを訓練することになります。
これはテッド・シャオです。
彼は、今後数週間でロボティクスとAIの分野を揺るがすであろう3〜4つの大きなニュースが出ると述べています。
彼は、現代の具体的な知能の試みに必要なすべての要素が揃っていると信じており、そして、彼はGoogleとDeepMindにいることを念頭に置いてください。
ここで彼は、ロボットのためのデータ収集がどれだけ改善されるかについて言及しています。
こちらはオープンソースのシステムです。
それは400ドルです。
それはスタンフォード出身です。
それはロボットのデータ収集を民主化するために設計されています。
そのデータはどのように収集していますか?
まあ、ここには人間がその動作をしているようなものがあります。
そこにはMP4を記録する2つのカメラがあります。
興味深いことに、そこには2つの鏡を使用して立体効果を作り出すようにして、より多くの角度で何をしているかを見るために、より多くのカメラを使用せずにいるようです。
そして、ここには新しい進捗状況のアップデートが4週間後にドロイドで行われるというロボットの開いた目が言っています。
モラベックのパラドックスは誤りである可能性があり、単にデータが不足していただけかもしれません。
モラベックのパラドックスとは、従来の仮定に反して、推論には非常に少ない計算が必要であり、知覚運動や知覚スキルには膨大な計算リソースが必要であるという考えです。つまり、知能テストやチェッカーのプレイにおいて成人レベルのパフォーマンスをコンピュータに示すことは比較的簡単であり、知覚や移動能力に関して1歳児のスキルを与えることは困難または不可能であるということです。
彼はそれが誤りである可能性があるように見え、単に私たちにはデータが不足していただけかもしれません。
これらの人たちが何を発表するのか、新しいブレークスルーが何になるのか楽しみにしています。
行く前に、デミ・ササビのインタビューからいくつかのクリップをご紹介します。彼が興味深いことに触れています。
ご覧ください。
AGIのようなものが登場する準備ができていると思いますか?
それは社会の誰もが影響を受けるものです。
国際協力に関する疑問があります。
私はそれをもっとたくさん見たいと思います。
残念ながら、現在の世界の地政学的性質はそれにはあまり適していません。
それは残念なタイミングです。
そして、もちろん、安全性、ガードレール、制御メカニズム、そして哲学に関する研究を加速する必要があります。
私たちのシステムや倫理、哲学から何を望むのでしょうか?
それは深い哲学的問題です。
私たちのシステムには何を望むのでしょうか?
どんな価値観を持つべきでしょうか?
そして、AIシステムが存在する社会において、私たちが何をしたいのかについて社会が適応する必要があると思います。
彼らは私たちに非常に役立つことができます。
おそらく、私たちはエネルギー問題、物理学、素材設計などの問題を解決することで豊かさを得ることができるのでしょう。
驚くほど多くの素晴らしい利点があるはずであり、それらが平等に分配されるようにしなければなりません。社会の誰もがその恩恵を受けられるように。
そして、サイエンスフィクションの本に書かれているような信じられないようなことが可能になるかもしれないと思います。イアン・バンクスによるCultureシリーズなどの本など。
若い頃からずっと、AIシステムによって支援され、私たちのために多くの基本的な問題を解決し、私たちを支援することで、宇宙全体での最大限の人間の繁栄の描写が私のお気に入りです。
それは素晴らしい、素晴らしい未来になるかもしれないと思います。
私は確信が持てません。
AGIが到来し、多くの大きな科学的問題を解決し、私たちが解決するのを手伝ってくれた世界を想像してみてください。私は時々それらを根ノード問題と呼びます。
知識の木を想像してみてください。解きたい中核の大きな問題は何か、それによって多くの新しい研究の枝が解き放たれる。そして、アルファフォールドもまたその根ノード問題の1つだと思います。
しかし、それを使って核融合や常温超伝導体、最適なバッテリーを解明すると想像してみてください。
それによって、突然エネルギーが無料または安価になり、その結果、宇宙旅行をより多く行ったり、小惑星を採掘することが可能になる、すべてが変わります。
そして、突然お金の性質さえも変わります。
人々が本当に理解しているかどうかはわかりません。
その時点で企業構造が正しい考え方なのかさえわかりません。
これらのシステムが複数ある場合、それらが適切に管理され、皆の利益のために使用されるようにするために、政府と他の機関との国際協力が必要とされる可能性があると思います。
AlphaFoldですが、通りで一般の人々はまだその影響を知らないかもしれませんが、それがAIによる薬や非常にひどい病気の治療法を設計することにつながるなら、知るようになるでしょう。
そして、それまで数年だと思います。
明らかに、私たちはGoogle DeepMinerの協力会社であるIsomorphic Labsを立ち上げました。それは、私も運営しているAlphaFoldの技術を化学と生化学に移し、もちろんAlphaFoldが予測したタンパク質構造の正しい部分に結合する薬を実際に設計することです。
そして、私たちはビッグファーマとの大規模な取引を結んでおり、実際の薬のプログラムに取り組んでいます。
そして、次の数年でAIによる設計薬が臨床試験に登場すると予想しています。
それは素晴らしい時期になるでしょう。
私たちは、主要な疾患、心血管疾患やがんなどに対して、真にAIが設計した最初の薬を持つまでには数年かかると言えます。私たちはこれらすべてのことに取り組んでおり、同形的なアプローチを採用しています。
AGIとは、あなたにとってどういう意味ですか?
AGIとは、一般的に可能なシステムを意味します。
そのシステムは、人間が行える認知的なタスクをほぼ何でも行えるはずです。
私は、数千のテストを行い、全般的に優れたパフォーマンスを発揮し、人間の脳が行えると知られているさまざまな領域を網羅する必要があると考えています。
ちなみに、それが重要なアンカーポイントである唯一の理由は、人間の脳が一般的知能が可能であるという実在の証拠であるということです。
そのため、私が元々神経科学とコンピュータ科学の両方を学んだ理由です。明らかに、AIの初期段階では、これらの知能現象がどのように生じるのか、そのヒントを神経科学からも得ることが重要でした。
彼らはどのように見えますか?
それゆえ、これらのシステムが一般的な知性の兆候を示すためには、何ができる必要があるのか、それを示すためにはどのような外見をしているのか、ということが重要です。
そして、実際には、現行のシステムではまだかなり遠いと思いますね?
実際、現在のシステムでは、そのような目標にはまだかなり遠いと思いますね。
そして、前にも言ったように、まだ多くの突破口が必要です。
私たちがそのような能力に近づいたシステムを次の10年以内、もしくはそれ以前に見ることに驚かないでしょう。