見出し画像

【Mobile ALOHA:ハイテク・ホームアシスタント】英語解説を日本語で読む【2024年1月5日|@TheAIGRID】

この動画では、Google DeepMindとスタンフォード大学の研究者により開発されたMobile ALOHAというロボットが紹介されています。このロボットは、3コースの食事を作るなど、非常に正確な動きで多様なタスクを自律的に実行できます。人間の動作を模倣し、約50例のタスクを学習する能力を持っており、重い物の扱いや自己駆動型の運動制御も可能です。ロボットはテレオペレーションと自律モードの両方を備え、料理や掃除などの日常タスクを自律的に行うことができるため、将来的には非常に有用であると期待されています。また、$32,000という比較的安価な価格設定も注目されています。
公開日:2024年1月5日
※動画を再生してから読むのがオススメです。


So, we actually have something that is absolutely incredible.

私たちは本当に信じられないものを手に入れた。

Some student researchers from Google DeepMind and Stanford University have built something amazing.

Google DeepMindとスタンフォード大学の学生研究者たちが素晴らしいものを作りました。

It's called Mobile ALOHA, and it's a really incredible robot that will show us what's to come in the near future.

Mobile ALOHAと呼ばれるこのロボットは、近未来に何が起こるかを見せてくれる、本当に信じられないようなロボットなのです。

So, you can see right here that this is the robot that they created.

ですから、ここには彼らが作ったロボットがあります。

This is some of the demos that they've showcased on their page, and you can see that this robot here is being used to make a three-course meal.

これは彼らのページで紹介されているデモの一部で、このロボットが3コースの料理を作るのに使われているのがわかります。

Now, I do want to say that there are many, many things that will be discussed later on in this video because this is a very, very fascinating project that you definitely want to pay attention to because it highlights the dexterity and the way in which these mots move, which is much more accurate than many people had assumed.

さて、このビデオでは後で詳しく説明されることがたくさんありますので、注意を払う必要があります。なぜなら、これは非常に魅力的なプロジェクトであり、それがどのようにして機敏さとこれらの動きを強調しているかを示しているからです。多くの人々が想定していたよりも正確です。

So, this initial demo was posted on Twitter, and it did take the Internet by storm for very obvious reasons.

この最初のデモはTwitterに投稿され、非常に明らかな理由でインターネットで話題になりました。

One of the main reasons that this took the Internet by storm was due to the fact that robots currently haven't really been able to do many tasks, especially at this scale, in terms of the cheapness where you can actually do a lot of tasks which people think only humans can do.

このデモがインターネットを席巻した主な理由のひとつは、現在のところロボットが多くの仕事を、特にこの規模で、人間しかできないと思われているような多くの仕事を実際に行うことができるという安さの点で、実際にはできていないという事実によるものだ。

And trust me when I say that a lot of the demos later on in the video only get more intense and more amazing.

そして、私が言っていることを信じてください。ビデオの後半では、デモがますます激しく、驚くべきものになります。

So, let's actually take a look at the team and this entire project to see exactly how things work.

では、実際にチームとこのプロジェクト全体を見て、どのようにすべてが動作するのかを見てみましょう。

So, this is the team.

これがチームです。

Here, we have Zipeng Fu, a Stanford and air robotics PhD at Stanford lab and a student researcher at Google DeepMind.

スタンフォード大学で航空ロボット工学の博士号を取得し、Google DeepMindの学生研究者でもあるジーペン・フー。

We have Tony Z, a PhD student at Stanford and a student researcher at Google DeepMind.

スタンフォード大学の博士課程の学生で、Google DeepMindの学生研究者であるトニー・Z。

And we have Chelsea Finn, CS faculty at Stanford and a research scientist at Google DeepMind.

そして、スタンフォード大学のCS学部教授で、Google DeepMindの研究科学者であるチェルシー・フィンです。

So, these are the people behind this.

これが、この研究を支えている人たちです。

Now, you're going to want to read the abstract, and the abstract is essentially just the introduction for the research paper in which they document how they manage to do everything.

さて、まずは要約を読む必要があります。要約は、彼らがすべてをどのように行ったかを文書化した研究論文の導入部分です。

So, essentially, it starts out by saying that imitation learning, where robots by watching humans work, really well for tasks done on a table like picking up objects, but this isn't enough for tasks that need moving around and using the whole body.

つまり、基本的には、模倣学習(ロボットが人間の作業を見て学習すること)は、物を拾うようなテーブルの上で行う作業には適しているが、動き回ったり体全体を使ったりする必要がある作業には十分ではない、というところから始まる。

In this project, we made a system called Mobile ALOHA, which is like an upgraded version of an old system ALOHA.

このプロジェクトでは、Mobile ALOHAと呼ばれるシステムを作りました。これは、古いシステムALOHAのアップグレード版のようなものです。

This new system can move around and is designed to control its whole body, making it more versatile.

この新しいシステムは動き回ることができ、全身をコントロールできるように設計されているため、より汎用性が高くなっています。

We use Mobile ALOHA to gather data by having it mimic human actions.

私たちはMobile ALOHAを使って人間の動作を模倣させ、データを収集します。

Then, we teach it to perform tasks by itself through a process called supervised Behavior cloning.

そして、教師あり行動クローニングと呼ばれるプロセスを通じて、自らタスクを実行するように教えます。

And then, we improve its learning by using a method called co-training, which I'll dive into later on the paper.

そして、私たちは後で論文で詳しく説明する「共同学習」という方法を使って、その学習を改善します。

Where it learns from both new and mobile tasks from the older ALOHA data, which is more static.

ここでは、より静的な古いALOHAデータから、新しいタスクとモバイル・タスクの両方を学習する。

And this approach is super effective by watching and learning from about 50 examples of each task.

そしてこのアプローチは、各タスクの約50の例を見て学習することで、非常に効果的です。

The robot gets really good at doing complex things like cooking shrimp, opening cabinets, using an elevator, and washing dishes.

ロボットは、エビを調理したり、キャビネットを開けたり、エレベーターを使ったり、皿洗いをしたりといった複雑なことが本当に上手になる。

In fact, this method, the robot's ability to complete these tasks correctly can go up to 90%. So, let's take a look at some of the tasks that they were able to do autonomously because by far, this is absolutely incredible.

実際、この方法を用いると、ロボットがこれらのタスクを正しく完了する能力は90%まで上がる。それでは、ロボットが自律的にこなしたタスクのいくつかを見てみよう。

So, you can see here that this is a demonstration of some of these tasks.

これは、いくつかのタスクのデモンストレーションです。

Now, what's even crazier is that this is 100% autonomous.

さらにすごいのは、これが100%自律走行だということです。

Later on in the video, I will tell you guys about teleop mode and how it actually works.

このビデオの後半で、テレオペモードとその仕組みについてお話しします。

But here, you can see that this robot is completely going about its day during the daily tasks on its own.

しかしここでは、このロボットが日常の仕事を完全に一人でこなしているのがわかるだろう。

Now, we did see some other examples of this from other robots like the palm e demonstration in which there was a robot there.

さて、私たちは他のロボットからもこのような例を見ました。例えば、パルムイのデモンストレーションでは、そこにロボットがいました。

But I think this one is far more intriguing because of the way that it's able to do certain tasks, which we really only thought were possible with just hands.

しかし、このロボットの方がはるかに興味をそそられるのは、私たちが手だけで可能だとしか思っていなかった特定の作業を、このロボットが可能にしているからだ。

And it was able to do many of these tasks, and some of them, like this one with the chairs, that weren't even in the original data set.

そして、そのようなタスクの多くをこなすことができたし、中にはこの椅子を使ったタスクのように、元のデータセットになかったものもあった。

So, by far, this is definitely fascinating stuff because I also remember seeing a video here where there was actually even some interference with the task, meaning that I think someone was throwing some stuff at the robot and throwing some stuff into it.

これは間違いなく魅力的なものです。実際、ここで見たビデオでは、タスクに干渉があったと思います。つまり、誰かがロボットに物を投げたり、中に物を投げたりしていたのです。

Um, and it still was able to complete the task.

それでもロボットはタスクを完了することができた。

So, a robot being able to cook shrimp, at this level is pretty crazy, if you ask me.

このレベルでロボットがエビを調理できるなんて、私に言わせればかなりクレイジーです。

So, some things that you do need to know about this robot.

このロボットについて知っておくべきことがいくつかある。

One of the first things is that the movement, this robot can actually move as fast as a person walking.

まずひとつは、このロボットの動きで、実際に人が歩くのと同じくらいの速さで動くことができる。

In the paper, they talk that it can move pretty decently.

論文では、かなりまともに動けると話している。

In addition to that, it's steady even when handling heavy things like spots.

それに加えて、スポットのような重いものを扱っても安定しています。

So, the stability of this robot is very effective.

つまり、このロボットの安定性は非常に効果的なのです。

So, it's not going to just be tipped over.

そのため、転倒することはありません。

In addition, you can control its arms and the base it moves on at the same time.

さらに、そのアームと移動するベースを同時に制御することができます。

And what's crazy about this is that it is self-powered.

このロボットのすごいところは、セルフパワーで動くことです。

So, it has its own battery and computer.

バッテリーもコンピューターも内蔵している。

And for the moving part, they chose a mobile Base called Tracer, which is used in warehouses.

そして移動部分には、倉庫で使用されるトレーサーと呼ばれる移動式ベースを選んだ。

It's fast, can carry heavy loads, and can move over small obstacles and slopes.

高速で、重い荷物も運べ、小さな障害物や斜面も乗り越えられる。

And it's also cheaper than similar products.

そして、他の類似製品よりも安価です。

And they designed the robot so a person can control it by being connected to it.

そして、ロボットに人が接続することで操縦できるように設計されている。

This way, the person can move the robot around while using its arms, which is definitely helpful for tasks like opening cabinets.

こうすることで、人はロボットの腕を使いながらロボットを動かすことができ、キャビネットを開けるような作業に役立つことは間違いない。

And it also does have cameras on its arms and one in front for seeing.

また、ロボットの腕にはカメラがあり、前方には視界を確保するためのカメラがあります。

And it can feel and record its movements.

そして、その動きを感じ、記録することができる。

Now, like I said before, this is essentially version two of the original ALOHA here.

さて、先ほども言ったように、これは基本的にオリジナルのALOHAのバージョン2です。

And you can see exactly how accurate this robot is at doing certain things.

このロボットがどれだけ正確な動作ができるかがわかるだろう。

I mean, it's able to put a ram stick in a robot, then it's able to get this box cut, a knife able to open it up.

つまり、ロボットの中にラムスティックを入れることができ、この箱を切り、ナイフで開けることができる。

And then, you know, do some very, very precise cuts to be able to open that package.

そして、非常に精密なカッティングを施し、パッケージを開けることができる。

Then, it's able to get that out and apply that so that thing can move.

それから、それを取り出して、それを適用することができます。

I'm not exactly sure what I'm looking at.

自分が何を見ているのかよくわからない。

I know that those are bike gears and yeah, so this is very, very, very impressive stuff because as you can see even here, this is in the teleop mode.

それは自転車のギアだとわかっていますし、それは非常に、非常に、非常に印象的なものです。ここでも見られるように、これはテレオペ・モードです。

Essentially, teleop mode, which I'll talk about more in just a second, is where a human essentially controls the robot via another arm.

基本的に、テレオペ・モードとは、もう少し詳しくお話ししますが、人間が別のアームを使ってロボットを操作することです。

So essentially, the human is giving the input and then that is able to do that.

つまり、基本的には人間がインプットを与えることで、ロボットがそれを行うことができるのだ。

Now, the thing about teleop is because it's essentially allowing you to control the robot in a very precise way, and why it's good is because we can then see exactly how good these robots could do if they were given the right data set or if we were able to program them in the correct way, which shows us how effective these robots are.

テレオペが優れているのは、基本的に非常に正確な方法でロボットを制御できることです。なぜ優れているかというと、ロボットに適切なデータセットを与えたり、適切な方法でプログラムしたりすれば、ロボットの能力を正確に把握できるからです。

So, with VR teleop, this is something you know, autonomous versus VR teleop or just standard teleop because there are many different ways that you can do it.

ですから、VRテレオペ、自律対VRテレオペ、または標準のテレオペの違いです。さまざまな方法で行うことができます。

You can do it in VR, you can do it in standard.

VRでできますし、標準でできます。

So, for example, if you don't know the difference, this right here is essentially VR teleop from Pollen Robotics, and this is essentially where you have someone in VR and they are able to control that robot.

もし違いが分からないなら、例えば、これはPollen RoboticsのVRテレオペレーションで、ここではVR内の人がそのロボットを制御できるということです。

So, teleoperation, also known as remote operation, just refers to the operation of a system or a machine from a distance, and it's mostly common associated with robotics and mobile robots, but it can be applied to a wide range of systems.

テレオペレーション、またはリモートオペレーションとは、システムや機械を遠隔地から操作することを指します。これは主にロボットや移動ロボットに関連していますが、さまざまなシステムに適用することができます。

And the term is often used in research, academia, on technology context, and of course, in the context of Robotics, teleoperation involves a human operator controlling a robot from a distance, and this control can be achieved through various communication channels, such as radio links, satellite connections, or Selen networks.

もちろん、ロボット工学の文脈では、遠隔操作とは、人間のオペレーターが離れたところからロボットをコントロールすることであり、このコントロールは、無線リンク、衛星接続、セレンネットワークなど、さまざまな通信チャネルを通じて実現できる。

And the distance involved can be as little as across a room and across continent, and it's particularly useful in situations where it's unsafe or impractical for humans to be physically present.

この制御は、無線リンクや衛星接続、セレン・ネットワークなど、さまざまな通信チャネルを通じて実現することができる。また、関係する距離は、部屋をまたいだり、大陸をまたいだりすることもあり、人間が物理的にその場にいることが危険であったり、現実的でなかったりする状況で特に有用である。

For example, teleoperated robots are used in search and rescue operations, nuclear and pharmaceutical industries, maintenance and research sectors, where on-site operation would put people at risk or where a clean environment needs to be maintained.

例えば、遠隔操作ロボットは、捜索救助活動、原子力産業、製薬産業、メンテナンス、研究分野など、現場での操作が人を危険にさらすような場所や、清潔な環境を維持する必要がある場所で使用されている。

And other common applications include space exploration, underwater vehicles, forestry, mining, agriculture, surveillance, rescue, and surgery.

その他の一般的な用途としては、宇宙探査、水中車両、林業、鉱業、農業、監視、救助、外科手術などがある。

This one here is, of course, a VR teleop, which is definitely some fascinating stuff.

これはもちろんVRテレオペですが、それは非常に魅力的なものです。

But in the actual paper, we did get some of the physical teleop, which is right there.

しかし実際の論文では、そこにある物理的な遠隔操作の一部を見ることができる。

So you can see he's able to clean the restroom with this robot right here.

このロボットでトイレを掃除しているのがわかるだろう。

And some people might be asking, what is the point of him even doing this if he could do it?

こんなことができるのに、何のためにこんなことをするのか、と思う人もいるかもしれない。

But like I just stated, there are many different applications for this.

しかし、今述べたように、これにはさまざまな用途がある。

And of course, you also get to see what the robot is actually capable of.

そしてもちろん、ロボットが実際に何ができるのかを見ることもできる。

And once you train autonomously, you can then get that robot to do similar tasks.

一度自律的に訓練すれば、そのロボットに同じような作業をさせることができる。

So I do think that it does show us how crazy robot dexterity is getting and how effective these robots might be in the future at certain tasks.

ですから、ロボットの器用さがいかにクレイジーになってきているか、そして将来、ロボットが特定の作業においてどれほど効果的なものになるかを示してくれていると思います。

Now, here was a demonstration of where they had the robot at home.

さて、これはロボットを自宅で使用するデモです。

And you can see here, once again, with the teleop system.

ここでもまた、テレオペシステムが使われている。

And remember, they do have two kinds of ways to control the robot.

そして覚えておいてください、彼らはロボットを制御するための2つの方法を持っています。

They have the teleop systems and the autonomous systems.

彼らはテレオペシステムと自律システムを持っています。

You can see here that it is able to really do pretty much any tasks that I can honestly think of.

ここにあるように、ロボットは正直なところ、思いつく限りのあらゆる作業をこなすことができる。

Like a lot of this stuff that you look and you see and you think a robot doesn't have hands.

多くのこのようなものを見て、そして考える時、ロボットには手がないと思いますよね。

It won't be able to do that.

ロボットには手がない。

It won't be able to, I guess you could say, for example, cook me a three-course meal.

例えば、3コースの食事を作ってくれることはできません。

As we did see in the start, it won't be able to control its hands to be able to do that.

最初に見たように、手をコントロールすることができないのです。

It won't be fast enough.

速さが足りない。

It won't be quick enough.

迅速さが足りない。

But of course, there are some things that you should know.

しかし、もちろん知っておくべきこともある。

Some of these clips, I'm not sure exactly which ones, but it will say in the left-hand corner or the right-hand side, whichever one it is, but it will say how sped up it is.

これらのクリップのいくつかは、どれがどれなのか正確にはわかりませんが、左側の隅か右側の隅、どちらか一方に、どれぐらいスピードアップしているかが書いてあります。

Because sometimes, and I will show you the real-time speeds of these robots in around two minutes once we finish analyzing this clip, because it also is very effective at, you know, just honestly controlling a lot of stuff.

なぜなら、時には、このクリップの分析が終わったら、約2分でこれらのロボットのリアルタイムの速度をお見せしますが、それは多くのことを正直に制御するのに非常に効果的です。

And one of the things that I do find really interesting was that this robot isn't actually shaped like human hands.

私が本当に面白いと思ったことのひとつは、このロボットが実は人間の手の形をしていないということです。

It's shaped like two claws, like kind of like a crab, I guess you could say.

それは2つの爪のような形をしています。カニのような感じですね。

And it just goes to show how much, you know, how many different ways there are to interact with the environment that are still very effective, that aren't 100% completely human.

そして、100%完全に人間的なものではなく、非常に効果的な環境との相互作用の方法がどれだけたくさんあるかを示しているんだ。

So that is something that I did also find pretty fascinating because some people would argue that human hands are just simply the best.

これは非常に魅力的だと思ったものです。なぜなら、人間の手が最高だと主張する人もいるからです。

They have the most dexterity.

彼らは最も器用です。

The grip strength is unmatched.

握力は他の追随を許さない。

And I guess you could argue that.

そう主張することもできるだろう。

But you can see that with these kind of robots, you are definitely accomplishing quite a lot here.

しかし、この種のロボットを使えば、間違いなく多くのことを成し遂げることができる。

So this is definitely something that is quite fascinating that, and even that right there, you know, being able to zip that up, is that's pretty hard stuff, even for some humans.

これは非常に魅力的なものですし、それについても、それをジッパーで閉めることができることはかなり難しいことです。人間にとっても難しいことです。

I would argue that that is something that is quite hard.

それはかなり難しいことだと私は主張します。

So, yeah, what we do need to take a look at as well is, of course, the autonomous nature of this product.

ですから、この製品の自律性についても見ていく必要があります。

Because I do believe that this project, if scaled correctly, could definitely be something that could be applied to many different things.

というのも、このプロジェクトは、正しくスケールアップすれば、間違いなくさまざまなことに応用できるものになると思うからだ。

So let's take a look at the rest of this clip.

では、このクリップの続きを見てみましょう。

And then, I'm going to show you guys the actual real autonomous stuff, and it in real time.

そして、実際の自律走行について、リアルタイムでお見せしましょう。

Let's take a look at some of the real-time autonomous tasks.

リアルタイムの自律タスクをいくつか見てみましょう。

So, this right here is, of course, the real-time autonomous task of this robot cooking shrimp.

これはもちろん、エビを調理するロボットのリアルタイムの自律タスクです。

So, you can see, of course, it isn't as fast, but it's still isn't as painstakingly slow as some of the previous tasks that we have seen from other robots and earlier generations.

もちろん、それほど速くはありませんが、他のロボットや以前の世代のタスクに比べれば、それほど骨の折れる作業ではありません。

Now, some people could argue that a human is way faster, but like I've always said, this is always development.

人間の方がずっと速いと言う人もいるだろうが、私がいつも言っているように、これは常に発展途上なのだ。

What we are seeing is the continuous evolution and progression of these robots.

私たちが目にしているのは、これらのロボットの絶え間ない進化と進歩なのだ。

They might not be lightning fast right now, but remember, year on year, month after month, day after day, as researchers and as many different students delve into the industry, I'm sure there will be more discoveries, more efficient ways of making them faster that we will eventually discover, which will lead to robots that are probably going to be too fast for our liking.

今のところは非常に速くはありませんが、年々、月々、日々と研究者やさまざまな学生がこの業界に取り組んでいく中で、もっと速くするためのより効率的な方法が見つかるでしょう。それによって、私たちの好みに合わないほど速いロボットが生まれることになるでしょう。

So, there are many different tasks that this robot was able to do autonomously, and it will be most certainly fascinating to see what other robots or what other tasks this is able to successfully accomplish.

だから、このロボットが自律的に行えたタスクにはさまざまなものがあり、他のロボットやこのロボットが成功裏に達成できた他のタスクがどんなものなのか、見てみたいものだ。

And I cannot be the only one surprised by how effective this robot is at doing certain tasks.

そして、このロボットがあるタスクをいかに効果的にこなすかに驚いているのは私だけではないはずだ。

So, here we have the push chairs task, and this is, of course, completely autonomous, and this is in real time.

ここでは、押し車のタスクがあります。もちろん、これは完全に自律的で、リアルタイムです。

So, you can see how fast it actually is.

ですから、実際の速さがお分かりいただけると思います。

And I did want to show this because I wanted to be transparent in not just, you know, saying that, Oh my God, this robot is so amazing.

これをお見せしたかったのは、単に「すごい、このロボットはすごい」と言うのではなく、透明性を確保したかったからです。

It definitely, absolutely is amazing, but it's important to know where we currently are because even at this speed, I still do think that it is pretty, pretty impressive.

それは確かに驚くべきことですが、現在の状況を知っておくことは重要です。この速さでも、かなり印象的だと思います。

Because although some humans could do it faster, this is still something that looks to be very effective at not only completing tasks effectively and not only controlling robots with a very precise grip.

というのも、もっと速くできる人間もいるかもしれませんが、それでもこれは、タスクを効率的にこなすだけでなく、非常に正確なグリップでロボットをコントロールするのに非常に効果的だと思われるからです。

And then, what we have as well about this was that it was only trained on the first three chairs, and the last two chairs are out of data extrapolation.

それから、このロボットについて言えることは、最初の3つの椅子で訓練しただけで、最後の2つの椅子はデータの外挿から外れているということです。

So then, of course, we have this one here, and like I said, there was an interesting example on Twitter, but I unfortunately wasn't able to find it.

そして、もちろん、ここにもこれがあります。私はTwitterで興味深い例があったのですが、残念ながら見つけることができませんでした。

But in that video, it did actually show some adversarial disturbance in which someone did put some things in the pot or they did move the pot multiple times.

しかし、そのビデオでは、誰かが鍋の中に何かを入れたり、鍋を何度も移動させたりという、敵対的な妨害が実際に見られました。

But this goes to show that, you know, you might come home from one day.

でもこれは、ある日家に帰ったら、ロボットが鍋の中に入っていた。

And then, you know, your robot has managed to clean up everything.

そして、あなたのロボットはすべてを片付けることができました。

Not just like a standard Roomba robot, which just, you know, glides around and picks up dust, but a real, actionable robot that, you know, moves around your kitchen or wherever and is able to, you know, fold your clothes, able to move your stuff.

標準的なルンバ・ロボットのように、ただ滑ってホコリを拾い集めるのではなく、キッチンでもどこでも動き回り、服をたたんだり、荷物を移動させたりすることができる、本物の行動可能なロボットなのだ。

I think this kind of technology is something that people should be paying attention to, not only because it's fascinating, but, you know, I think there is the elephant in the room.

私はこのような技術に注目すべきだと思います。それは魅力的なだけでなく、部屋にいる象がいると思います。

You know, one of the things that many people have been concerned about recently when looking at these autonomous robots, and for example, you can see the robot here being able to rinse out this pan in real time, is whether or not these robots are going to be taking people's jobs.

最近、自律型ロボットを見る際に多くの人々が心配していることの一つは、このロボットが人々の仕事を奪ってしまうのかどうかです。例えば、ここでリアルタイムでこのフライパンをすすいでいるロボットが見えますが、それについてです。

Because, of course, as you know, any task on a computer in the nearby future could, of course, eventually be automated by AI agents.

というのも、もちろん、ご存知のように、近い将来、コンピューター上のどのような作業も、最終的にはAIエージェントによって自動化される可能性があるからだ。

But the robotics debate was something that many people have said for a while now is something that is going to be fairly slower than the software advancements that we have with software like ChatGPT.

しかし、ロボット工学の議論は、ChatGPTのようなソフトウェアの進歩に比べると、かなり遅いものになるだろうと、以前から多くの人が言っていたことです。

But with videos like this and with projects like this from Stanford and Google DeepMind, it's showing us that robots won't be that far behind, as long as there is this level of research taking place.

しかし、このようなビデオや、スタンフォード大学やGoogle DeepMindのこのようなプロジェクトは、このレベルの研究が行われている限り、ロボットがそれほど遅れているわけではないことを示しています。

And then, of course, here we have completely autonomous and in real time, we can see the robot coming over to here and, of course, being able to wipe this down.

そしてもちろん、ここでは完全に自律的に、リアルタイムで、ロボットがここにやってきて、もちろんこれを拭き取ることができるのを見ることができる。

Now, there definitely has been an influx of robotics research being looked at just across the globe based on what I've seen.

私が見てきた限り、世界中でロボット工学の研究が増えていることは間違いありません。

And I do think that we are going to be getting a stellar level of research and development in 2024, not just from students, not just from companies, but just honestly across the globe because of the many things that are now going on.

そして、私は2024年に研究開発の素晴らしいレベルを得ると思います。それは学生だけでなく、企業だけでなく、実際には世界中で行われている多くのことによるものです。

For example, they actually did open source this project.

例えば、彼らは実際にこのプロジェクトをオープンソース化した。

And one thing that they did also talk about that was absolutely incredible was the price of this entire rig.

そして、彼らが話したことの中で、本当に信じられないようなことがひとつある。

You could get for only $32,000.

わずか32,000ドルで手に入る。

You might be thinking, well, you know, for the average person, $32,000 is a lot of money, and you'd be correct in saying that.

一般の人にとっては、3万2000ドルは多額のお金だと思うかもしれませんが、それは正しいと言えます。

But remember, a lot of the other humanoid robots that are able to do, you know, pretty basic stuff are a lot of money.

しかし、他のヒューマノイド・ロボットの多くは、基本的なことができるにもかかわらず、高額なのだ。

I'm talking six figures, you know, mid-six figures, around $200,000, you know, which is definitely the price of like, you know, a supercar or a medium-sized family home depending on where you are.

私は6桁の数字、中間の6桁の数字、約20万ドルなどを指しています。それは、場所によっては、スーパーカーや中規模の家族向けの住宅の価格です。

And that's definitely not something that people can afford.

それは間違いなく、人々が買えるようなものではありません。

But if we have something that's open source and people can figure out how to make it cheaper and cheaper and cheaper, just like as technology has done, I mean, if you look back, you can remember how giant our TVs were and how giant our computers were and how expensive and slow they were.

でも、もしオープンソースのものがあって、人々がそれをもっと安く、もっと安く作る方法を見つけ出すことができれば、テクノロジーがそうであったように、つまり、振り返ってみれば、テレビがどれだけ巨大で、コンピューターがどれだけ巨大で、それらがどれだけ高価で遅かったかを思い出すことができる。

I think the trajectory is definitely, definitely clear now.

軌道は確かに明確になったと思います。

Something that I also do want to talk about is the co-training.

また、共同トレーニングについてもお話ししたいと思います。

So, co-training is like teaching someone to cook using two different cookbooks.

共同トレーニングとは、2冊の料理本を使って料理を教えるようなものです。

So, one cookbook has recipes for basic dishes, and the other recipe has more complex meals that involve moving around the kitchen to use various appliances.

1つのレシピ本には基本的な料理のレシピがあり、もう1つのレシピ本にはキッチン内を移動してさまざまな家電を使うような複雑な料理のレシピがあります。

Now, in the Mobile ALOHA project, co-training means the robot learns from two sets of examples or cookbooks.

さて、Mobile ALOHAプロジェクトでは、共同トレーニングとは、ロボットが2つの例や料理本から学ぶことを意味する。

The first set shows robots how to do the tasks that require both using the hands at the same time, like cracking eggs with one hand while stirring a bowl with the other.

最初のセットは、片手で卵を割りながらもう一方の手でボウルをかき混ぜるというような、両手を同時に使う必要がある作業をロボットが行う方法を示している。

But these tasks are done in one place without moving around.

しかし、これらの作業は動き回ることなく、1つの場所で行われる。

Now, the second set of examples teaches the robot how to move around and do tasks in a different part of a room, like going to the fridge to get ingredients.

さて、2つ目の例では、冷蔵庫に食材を取りに行くなど、部屋の別の場所でロボットが動き回り、タスクをこなす方法を教える。

And then, moving to the stove to cook, by learning from both sets, the robot gets really good at tasks that need both hand coordination and moving around.

そして、調理のためにコンロに移動する。両方のセットから学習することで、ロボットは手の協調と移動の両方を必要とするタスクが得意になる。

Like cooking a complete meal, where it needs to fetch ingredients, prepare them, and cook them on the stove.

完全な食事を作るように、材料を取ってきて、準備して、コンロで調理する必要があるようなものです。

This way, the robot becomes more skilled and can do more complex tasks than if it had learned from just one set of examples.

このようにすることで、ロボットはより熟練し、1つの例だけから学んだ場合よりも複雑なタスクをこなすことができます。

And we can see time and time again, co-training outperforms the no co-training.

何度も何度も見てきたように、共同トレーニングは共同トレーニングを行わない場合よりも優れています。

This is also a tweet from Chelsea Finn, one of the people on the team who did this awesome project, where they're talking about the hardware that you know only cost $32,000, including all peripherals.

これはまた、この素晴らしいプロジェクトを行ったチームの一員であるチェルシー・フィンからのツイートであり、$32,000(周辺機器を含む)というコストでしかもすべての周辺機器を含んでいると話しています。

And they were actually surprised by how capable it was.

そして、彼らはそれがどれだけ能力があるかに驚いていました。

And of course, they left a link in order for you to build it yourself.

もちろん、自分で作るためのリンクも残しています。

Now, something that is also important to talk about is the conclusions, limitations, and the future directions.

さて、重要な話題として結論、制約、そして将来の方向性についても話しましょう。

So essentially, I read the conclusions in the paper, and in simple terms, the project is about making a robot that can move around and use both hands to do complex tasks like a human would in the kitchen.

要するに、私は論文の結論を読み、簡単に言えば、このプロジェクトはキッチンで人間のように複雑なタスクを行うことができるロボットを作ることに関するものです。

And the robot system, of course, as we know, was built on top of the existing ALOHA system.

そして、ロボットシステムは、もちろん、既存のALOHAシステムの上に構築されました。

And it was able to do many of these tasks very well with just 20 to 50 demonstrations, and also cost less than $32,000.

そして、わずか20から50のデモンストレーションでこれらの多くのタスクを非常にうまくこなし、また$32,000未満のコストで実現しました。

And they're available freely for anyone to use.

そして、誰でも自由に使用できるようになっています。

However, there are some things that they do want to improve.

ただし、改善したいと思っていることもあります。

For example, the robot is a bit large in some spaces, and its arms can't reach high or low enough for tasks like using an oven.

たとえば、ロボットは一部のスペースでやや大きく、オーブンの使用などのタスクに対して十分に高い位置や低い位置に手が届かないことがあります。

Now, of course, in certain houses, we do have different spaces and different sizes.

さて、もちろん、私たちの家には異なるスペースやサイズがあります。

So ideally, for any large-scale robot that's going to be for home usage, we do want it to have minimal, as you know, we do want it to be essentially as small as possible.

ですから、家庭用の大規模なロボットには、できるだけ小さくなるようにしたいです。そして、できるだけ多くの自由度を持たせることが望ましいです。それによって、ほとんどの人間が掴むことができないものを掴むことができ、ほとんどの人間が歩くことができない場所でも歩くことができるようになります。

And we want it to have as many degrees of freedom as possible in order to be able to work in the widest range of places and to be able to grab things that most humans can't grab and to be able to walk in places that most humans can't walk.

そして、私たちはできるだけ多くの自由度を持つことを望んでいます。それによって、できるだけ広範な場所で作業し、ほとんどの人間が掴むことができないものを掴み、ほとんどの人間が歩くことができない場所でも歩くことができるようになります。

Now, they also plan to make this robot smaller, which is, of course, what we need, and give its arms greater range of movements, which is something that we do expect.

彼らはまた、このロボットをより小さくする計画も立てています。それが必要なことですし、その腕にもっと広い動きの範囲を与える予定です。それは私たちが期待していることです。

Now, on the software side, the robot is currently only learning from tasks shown by expert users, and the team wants to improve this so that the robot can learn from a range of examples, including less perfect ones.

現在、ソフトウェアの面では、ロボットは現在、専門家のユーザーが示したタスクからのみ学習していますが、チームはこれを改善し、ロボットが完璧でない例を含むさまざまな例から学習できるようにしたいと考えています。

And in the research paper, they actually show that an average user can actually become an expert within only around, I think it was five examples or five training runs.

そして、研究論文では、平均的なユーザーがわずか5つの例または5つのトレーニングランで実際に専門家になることができることを示しています。

I'm not sure exactly what the indicator was, but it definitely didn't take that long.

具体的な指標はわかりませんが、それほど時間はかかりませんでした。

So I think this project, this entire thing to start off 2024, is definitely a very good look into the future of Robotics and what is going to be done at scale.

私はこのプロジェクト、2024年のスタートにおいて、ロボティクスの未来と、規模で行われることに非常に良い展望だと思います。

I mean, think about it like this, if three students, and of course, to note, definitely three very, very smart and well-capable students, can produce this, what could a team of 300 at a large corporation do?

つまり、もし3人の学生、もちろん、非常に非常に賢くて能力のある学生がこれを作り出せるのであれば、大企業の300人のチームは何ができるのでしょうか?

I mean, it definitely goes to show that if people can do this on such a smaller scale, what is going to be available on a bigger scale?

つまり、もし人々がこのような小規模なスケールでこれを行うことができるのであれば、より大規模なスケールで何が利用可能になるのでしょうか?

And the fact that it is open source means that this does, once again, raise the bar for the base level of what we're able to see with the robotics.

そして、オープンソースであるという事実は、これが再びロボティクスの基本レベルの基準を引き上げることを意味します。

So let me know if you found this to be intriguing.

もしこれが興味深いと思われる場合は、教えてください。

Are you going to be taking a further look at this?

これについてさらに詳しく見てみますか?

All links will be in the description.

すべてのリンクは説明欄にあります。

And are you excited for robots, even if some of them can do these autonomous tasks, which may actually take some of our jobs, but at the same time, should make some of our lives easier?

そして、ロボットに興奮していますか?自律的なタスクをこなすことができるものもありますが、それによって私たちの仕事が一部奪われるかもしれませんが、同時に私たちの生活をより簡単にすることができるでしょうか?


この記事が気に入ったらサポートをしてみませんか?