中国の深圳から登場したヒューマノイド型ロボット「Astribot S1」は、完全自律型でありながら極めて滑らかで高速な動作を見せ、AIとロボット技術の最先端を行くものとして注目を集めています。Astribot S1の印象的なデモンストレーションでは、カップ積み上げゲームやピンポン玉とおもちゃの分類、紙飛行機の的入れ、野菜のカットなど、様々なタスクをこなす姿が披露されました。特に、カップ積み上げの速さと滑らかさは人間でも難しいレベルであり、ロボットとは思えないほどです。このロボットは、遠隔操作ではなく完全自律型で動作しており、搭載された大規模言語モデル(LLM)と視覚システムを駆使してタスクを遂行しています。Astribot S1は2本指でありながら高度なタスクをこなしており、シンプルな設計でも十分な性能を発揮できることを示しています。
公開日:2024年4月27日
※動画を再生してから読むのがオススメです。
おそらく中国はAIだけでなく、もちろんロボティクスでも再びリードを取っているのでしょうか?
この新しいビデオデモンストレーションは、実際には中国が完全自律のヒューマノイドスタイルのロボティクスの分野で先頭を走っていることをあなたに納得させるかもしれません。そして、これがどれほど優れているかは実際に驚くべきことです。私はこのレベルのロボットに我々がそんなに近づいているとは思っていませんでした。
このデモを見て、なぜこれが印象的なのかを見てみましょう。
現在、これはAstrobot S1と呼ばれる、自然にあなたのものである次世代ロボットです。そして、このデモで見るすべては一度のスピードであり、操作は一切なく、完全に自律しています。
なぜなら、あなたが今見ようとしているものは非常に魅力的だからです。
皆さん、深セン中国からやってきたAstrobot S1をご紹介します。
まず最初のデモをご覧ください。
これは私が今まで見た中で最も狂ったものです。
そこで見たデモ、これがなぜ印象的なのか、そして多くの人々がこれが本物だとさえ信じていない理由は、私たちが見ているものが非常に速く、非常にスムーズなものだからです。
それは完全に自律型であり、テレオペレーションはありません。
ご存知ない方のために、テレオペレーションとは、他の多くのロボティクスデモで見られるように、VRヘッドセットで機械を操作する人間がいないことを意味します。
そして、これをかなり印象的にしているものの一部は、もちろん大規模言語モデルの統合です。
私はまずこれについて話しますが、ほとんどすべてのAIとロボティクスの開発に注意を払っている人間としても、この最初のデモは本当に現実にさえ思えません。なぜなら、これがどれほど速いかということが理由です。
馴染みがない方のために、これは多くの人間がプレイするカップスタッキングゲームです。
もちろん、目標はできるだけ速く積み上げることですが、これは完全に自律型のロボットにとってはかなり印象的です。
これは、もちろん、率直に言うと、多くの人間がこれに苦労していることです。
これは確かにかなり印象的なことであり、そのようにグラスから布を引き抜くには特定の技術が必要です。
ここに入ると、ここからさらに興味深くなり始めるところです。もちろん、大規模言語モデルの統合があることがわかります。したがって、ユーザーは最初にAIシステムに尋ねます。「何が見えますか?」
そして、それは明確に述べます。「オレンジのピンポンボール、赤いレーシングカートのおもちゃ、白いハローキティの置物、ピンクのノートブック、白い容器2つ、赤いペンとラップトップが見えます。」
システム内のすべてのアイテムが明確に識別されています。
ここで見ることができるように、このロボットシステムには明確にオンボードビジョンシステムが搭載されています。
どの大規模言語モデルを使用しているかは確かではないですが、彼らは実際にどの大規模言語モデルを使用しているかを明言していないので。
どの大規模言語モデルを使用しているかわかりません。
正直に言って、それはどのオンボード大規模言語モデルでもあり得ます。
今はたくさんの大規模言語モデルがあります。
そして、小さな大規模言語モデルの台頭とともに、PHY3などのリリースで見られるように、将来的に大幅に改善される可能性があります。
彼らがどの大規模言語モデルを使用しているかはわかりませんが、彼らはある種のビジョンシステムも使用しています。
もちろん、非常に印象的なのは、これが続くにつれて、ここで見ることができるように、ビジョンシステムが実際にYOLOビジョンシステムに似ていることです。これはたくさんの異なるものを識別できるビジョンシステムです。
そして、明らかに複数の異なるアイテムを識別できているのがわかります。
おもしろいのは、ここにはどのようにアイテムを分けてテーブルを片付けるかと書かれており、おもちゃ用の容器と筆記具用の容器が必要で、文房具をしまう必要があると書かれていることです。
そして、私は、もちろん、それは人間にとっては非常に明らかなことですが、何度も何度もやってきたからですが、これはロボットにとっても見ていてますます良いものであり、これらの異なるAIシステムが真のヒューマノイドロボットと一緒に動作する際に、推論と理解の小さなレベルを示しています。
彼らはまた、これが模倣学習を通じて行われたと述べています。
私は、彼らがどれだけの例を手に入れたか、どれだけの人間のデモンストレーションを行ったかはわかりませんが、このロボットが活動しているときの速度や、もちろん、これらのタスクを完了する際のロボットの優れたスムーズさを考えると、おそらくかなりの数だったと思います。なぜなら、これらのタスクは本当に中途半端に見えないからです。
実際、これらは本当に、本当にうまくやられているように見えます。
そして、このことが狂っているのは、今年いくつかのロボティクスのデモを見てきましたが、正直なところ、これは今までで最も印象的なデモです。
そして、これは私たちが見たものに基づいています。
そして、これもまた最も狂ったことですが、これは私が以前何度も言及してきたことであり、ロボティクスのデモを見ると、この二本立てのアプローチでロボットが単に何ができるかはかなり驚くべきことです。
なぜなら、多くの人々が、効果的に機能するためには、ヒューマノイドロボットには人間が使うように5本の指が必要だと述べるでしょう。
しかし、多くの異なるロボティクスのデモからは、それが最善のアプローチではないかもしれないことが明らかです。
何かをする際に、シンプルでスムーズにすることが本当に効果的であることがあります。
そして、これを見ると、もちろん、このレベルのロボティクスにおいてもまさにそのようなケースであることがわかります。
一部の人々は、一部のロボティクスのデモでは、問題は、コントロールされた環境で物体が配置され、もちろん、事前に、プログラムされたわけではないが、事前に設定されたルーチンで何度もデモを行っているということです、と主張するかもしれません。
しかし、率直に言って、紙飛行機をゴミ箱に投げるようなことをするのは、他のタスクと一緒に行うことは、どんなロボットにとっても非常に印象的だと思います。
そしてもちろん、それほど印象的ではないように見えるこのようなタスクも、本当に印象的だと思います。それは文字通り野菜を切っているからです。
このロボットについて知りたいもう一つのことは、このロボットが移動するベースを持っているか、または脚を持っているかどうかです。
なぜなら、はい、ロボットの上から見ると、2本の腕と背面に接続されたビジョンシステムがあることがわかります。
このロボティックシステムが将来役立つためには、このものが移動できるかどうかを確認する必要があります。
このアストロボットは、一般的に見られるリフレックスロボットとは混同されないようにする必要があります。
私はこのロボットが何であるかを示しているだけであり、このロボットがそうではないことを示しているだけですが、このロボットはこのロボットのように見えます。
このロボットは別の会社のもので、実際には完全に遠隔操作されています。
人間がこれを制御しています。
これは完全に自律的ではありませんが、おそらく、このロボットが世界中で展開する際にastrobotが使用している同じ種類のアーキテクチャであると思われます。
そしてもちろん、前に言ったように、これは単にこれらのモデルの速度と流動性のみに関してはまだ見たことがないものであるため、非常に素晴らしいものになるでしょう。
皆さんに完全に正直でなければならないのですが、この流動性、速度、そしてそれだけでなく、このデモの最も狂ったことは、このロボットが何ができるかのいくつかの異なる例がたくさんあったことです。
1つや2つだけでなく、複雑で入り組んだタスクを行うことができる例がいくつかあり、実際にはいくつかの人間でもかなり難しいと感じるかもしれません。
このロボットから楽しみにしていることの一つは、実際の大規模言語モデルシステムと組み合わされていることであり、将来的には、もちろん、このロボットがその大規模言語モデルを使用してコマンドを口頭で話し、人間が口頭でそれとやり取りすることができる可能性があることです。
現時点では、オーディオクリップからのチャットインターフェースだけのようです。
ウィスパーやいかなる種類のオーディオ転写ソフトウェアを介した人間とロボットの統合が実際に行われているようには見えませんでした。
ただ、誰かがそれを入力したかのように見えました。
それに基づいてロボットがタスクを完了した後、それを追加で見たいと思います。
私は、それがこのロボットの使いやすさを向上させると思うからです。
そしてもちろん、もう1つ見たいことは、このロボットが環境内を移動する可能性があることです。
なぜなら、ロボットが苦労することの1つは、異なる環境にいることです。
環境がリセットされると、オブジェクトを識別し、正しい場所に移動させることがより難しくなります。
これらは、もちろん、より印象的だと思われる2つのことです。
しかし、私はこのロボットを批評しようとしているわけではありません。
ここで見ているものからすると、驚くべきことに、現在、ロボティクスの分野でリーディングラボです。
そして、現在、ロボティクスやヒューマノイドに対する期待が高まっているため、100%懐疑的な人がいることは常に知っています。
当人々がこのものを見ると、それが遠隔操作されていると思うかもしれません。
遠隔操作はないと書いてありますが、これは今最先端の研究所かもしれないと思います。
デモの面ではこれが最先端の研究所かもしれませんが、Bottom Dynamicsのロボットは本当に印象的な偉業を成し遂げ、新しいロボットがどのように動くかを披露しました。
そして私は、そのロボットが器用さ、自由度、走行や他のタスクの完了において、このロボットよりもはるかに優れているかどうか疑問に思っています。
これは、中国がヒューマノイドロボティクスやロボティクス産業に関わる際にゲームをしていないことを示しています。
そして、前のビデオをチェックしていない場合は、GPT-4を上回り、現在は最先端のシステムであり、最高のAIシステムであるための要件を完全に満たす別のAIシステムを紹介したビデオがあります。
多くの人々がそれをテストするまで信じないと言いましたが、私たちは功績がある場合にはその功績を認めなければならないと思います。
これは、明らかに中国がインフラと長期的な計画に関して米国よりもはるかに多く投資している分野であるため、私は本当に待ちきれません。
もちろん、この会社がさらに多くのことを披露するのを本当に待ちきれません。
もちろん、これは完全に偽物かもしれません。
我々は正直、全く分からないんです。
でも、私は、これだけのブレイクスルーや印象的なデモを完全に見てきたことを考えると、そうは思えないんです。
この一度のスピードで、信じられないことをするテレオペレーションロボットがいるとすれば、競争の観点で別のレベルを見ることになると思います。
企業や個人が、これが意味することの重大さに気づき始めているからです。
正直なところ、このデモを見たとき、実際に私が考えたことの一つは、心の奥にあったことで、私は、ああ、私たちはロボティクスに向かって非常に速く進んでいるので、もしかしたら、たったひとつの可能性として、ロボティクスが最初に想像した以上に社会に統合されるかもしれないと思っていた。
私は特定のことしか彼らがすることを想像していませんでした。
でも、ロボットが実際にAGIレベルのシステムで一般化し、すべての現行のAIシステムと組み合わせて効率性と流動性、ダイナミックな動きを証明できれば、本当にさまざまなシナリオでロボットを持つことができるかもしれません。
Astrobot S1について、皆さんはどう思いますか。
なぜなら、私はこれが本当に最先端のシステムだと思うからです。
そして、これは他の企業からの競争レベルを高めると私は前に言ったように思います。
ウェブサイトには、詳細があまり記載されていませんでした。
しかし、このロボットは2024年に商品化される予定だと言っていましたので、おそらく今年市場に投入されることになるでしょう。
そして、それはこの完全自律型ロボットが今年後半にはタスクを完了するのを見る可能性が高いことを意味します。
もし実現すれば、それはかなりクレイジーなことになるでしょう。
正直に言って、私は2025年を予想しています。なぜなら、ロボティクス企業から見て、通常遅延があり、バックエンドで起こることが遅延の原因となることが多いからです。
しかし正直に言って、ここで見たものからすると、彼らは他の誰よりも進んでいるように見えます。
と言っても、ヒューマノイドロボティクスについてどう思われるか教えてください。
そして、コメント欄にコメントへの返信を残しておきます。